Deepfake
Deepfake adalah teknologi pemanfaatan artificial inteligent (AI) yang bisa memanipulasi wajah dan suara seseorang dalam video atau konten digital lainnya dan mengubahnya sedemikian rupa.
Meskipun fitur Deep Nostalgia pada aplikasi MyHeritage cukup menghibur dan menyenangkan, aplikasi ini juga memunculkan kekhawatiran soal perkembangan teknologi deepfake di masa mendatang.
Pemerhati keamanan siber cum sfat Engagement and Learning Specialist di Engange Media, Yerry Niko Borang mengatakan bahwa teknologi deepfake ini bisa sangat berbahaya.
Baca Juga: 20 Aplikasi Paling Aman dan Tak Ambil Data Pribadi Penggunanya, Ada Bigo Live dan Signal
Yerry mengatakan bahwa deepfake bisa disalahgunakan untuk memproduksi konten-konten hoaks.
"Konsekuensinya akan tidak terbayangkan jika deepfake dipakai untuk menyebarkan hoax. Bayangkan jika Presiden muncul berpidato menyatakan perang baru dengan suatu negara. Video begini sudah bisa dibuat saat ini," kata Yerry melansir dari Kompas.com, Rabu (10/3/2021).
Menurutnya, AI yang memproses deepfake ini terus berkembang, salah satunya karena AI terus mendapat pasokan data yang pribadi dari berbagai aplikasi media sosial.
Konten dan identitas palsu
Berdasarkan laporan dari The Guardian, September 2019 lalu, firma AI Deeptrace menemukan sedikitnya 15.000 video deepfake yang beredar di internet.
Dari jumlah tersebut, 96 persen di antaranya merupakan video porno dengan 99 persennya menampilkan wajah seleb terkenal yang ditempel pada wajah artis porno.
Selain itu, deepfake juga dapat disalahgunakan untuk membuat identitas palsu yang sangat meyakinkan, namun palsu.
Baca Juga: Bocoran Uji Coba Fitur "Undo" di Twitter, Bagaimana Cara Kerjanya?
Jurnalis Bloomberg, Maisy Kinsley, yang memiliki profil di LinkedIn dan Twitter, diduga merupakan identitas fiktif yang merupakan hasil teknologi deepfake.
Akun LinkedIn palsu lainnya yakni Katie Jones yang mengaku bekerja di Pusat Studi Strategis dan Internasional diduga sebagai deepfake yang dibuat untuk operasi mata-mata asing.
Selain suara, deepfake juga bisa digunakan untuk memalsukan audio yang membuat suara dari tokoh masyarakat.
Maret 2019 lalu, kepala cabang perusahaan energi Jerman di Inggris kehilangan hampir 200.000 poundsterling atau sekitar Rp 4 miliar usai ditelepon oleh seseorang yang meniru suara bosnya.
Sumber : Kompas TV
Gabung ke Channel WhatsApp KompasTV untuk update berita terbaru dan terpercaya.