Teknologi Deepfake, Peniru Wajah yang Canggih Tapi Ngeri
Teknologi deepfake sudah semakin canggih dibantu artificial intelligence. Bahkan, ada aplikasi yang membuat orang yang sudah meninggal bisa bergerak lewat foto. Tapi ada sisi mengerikannya juga.
Sebagai penjelasan, deepfake merupakan kecerdasan buatan (Artificial Intelligence/AI) yang bisa membuat video ataupun audio palsu menggunakan referensi material yang sudah ada.
Yang terbaru dan viral ialah aplikasi besutan MyHeritage pada akhir Februari 2021 yakni Deep Nostalgia yang memanfaatkan deepfake. Aplikasi ini dapat membuat siapapun bisa 'menghidupkan' koleksi foto jadul dengan mudah. Dengan singkat, banyak orang yang mencoba fitur tersebut untuk mengenang orang terkasih yang sudah wafat terlebih dahulu.
Meski disambut positif oleh segelintir orang, ada juga yang resah dengan kecanggihan deepfake. Mereka beranggapan, deepfake bisa menjadi media yang mendukung penyebarluasan hoaks. Pakar keamanan siber Pratama Persadha sempat memberikan pendapatnya tentang sisi lain deepfake kepada detikINET.
"Ancaman nyata dari dunia siber ke depan semakin beraneka ragam, misalnya yang sudah sering dibahas dan menjadi ancaman adalah hoax. Namun kini, ancaman hoax ditambah dengan model deepfake yang sungguh berbahaya," ujarnya.
Jika hanya untuk pemakaian pribadi nampaknya tidak ada masalah, tapi kalau sudah ada niatan buruk maka bisa celaka. Sebab, sampai sekarang belum ada teknologi yang bisa mendeteksi apakah video tersebut palsu atau asli.
Pratama mengatakan, salah satu contoh yang paling sering dijadikan contoh adalah video palsu mantan Presiden AS Barack Obama. Faktanya, selain Obama, tokoh lain juga jadi sasaran. Salah satunya Elon Musk bos SpaceX dan Tesla yang sampai membuat saham perusahaannya rontok.
Parahnya lagi, salah satu situs secara eksklusif melayani penonton pornografi deepfake dengan menampilkan wajah idol K-Pop wanita di halaman tersebut. Mereka bahkan memberi peringkat berdasarkan popularitas penayangan sebagaimana dilansir detiKINET dari Koreaboo, Minggu (25/4/2021).
Sebuah statistik menunjukkan bahwa korban dari teknologi deepfake untuk video porno dengan menggunakan wajah idol K-Pop wanita sebesar 25%.
Video-video tersebut tidak hanya sangat melanggar hak asasi manusia dan dapat dianggap sebagai bentuk pelecehan seksual. Video-video ini juga sering dijual sebagai bayar per-tayang, di mana pembuatnya mengambil untung dari gambar para idol K-Pop tersebut. Video-video itu juga tersebar secara terbuka di media sosial seperti Twitter.
Sumber: Teknologi Deepfake, Peniru Wajah yang Canggih Tapi Ngeri