Kompas TV tekno aplikasi

Bahaya Teknologi Deepfake di Aplikasi MyHeritage, Seperti Apa?

Kompas.tv - 10 Maret 2021, 15:09 WIB
bahaya-teknologi-deepfake-di-aplikasi-myheritage-seperti-apa
Aplikasi MyHeritage yang pakai teknologi kecerdasan buatan (AI) deepfake kini viral. (Sumber: The Guardian)
Penulis : Fiqih Rahmawati

JAKARTA, KOMPAS.TV – Masyarakat kini dihebohkan dengan aplikasi yang bisa ubah foto menjadi seolah-olah hidup bernama MyHetitage.

Sejumlah netizen menggunakan aplikasi ini untuk mengenang anggota keluarga yang sudah meninggal.

Melalui aplikasi MyHeritage ini, pengguna dapat membuat foto menjadi bergerak, berkedip bahkan tersenyum.

Aplikasi MyHeritage dibuat oleh perusahaan yang bernama sama, yang kerap membuat situs dan software tentang genealogi (garis keturunan).

Baca Juga: MyHeritage, Aplikasi yang Viral karena Ubah Foto Seolah Hidup, Bangkitkan Memori Lama

Pengguna MyHeritage dimungkinkan untuk membuat pohon silsilah keluarga mereka, mengunggahnya dan mencari melalui foto.

Aplikasi tersebut kini berkembang dengan fitur animasi foto yang membuat foto bisa bergerak dan tetap realistis.

Cara kerja MyHeritage

Aplikasi MyHeritage dalam keterangan resminya menyebutkan bahwa perusahaan mereka bekerja sama dengan D-ID, sebuah perusahaan yang membuat peraga video dengan menggunakan teknik AI yang disebut deep learning.

Foto bergerak yang dibuat oleh MyHeritage ini dibuat dengan memanfaatkan cetak biru dari video prarekam yang disebut dengan drivers.

Baca Juga: Ini 20 Aplikasi yang Paling Banyak Lacak Data Pribadi Pengguna, Apa Saja?

Dengan teknologi tersebut, gerakan animasi ini akan disesuaikan dengan orientasi wajah. Pengguna akan mendapatkan hasil yang berbeda, tergantung sudut foto dan aksesori di wajah obyek.

Untuk hasil yang maksimal, MyHeritage menggunakan fitur yang bisa meningkatkan resolusi dan berfokus pada foto yang blur atau berkualitas rendah.

Fitur animasi foto yang ada di MyHeritage ini disebut dengan Deep Nostalgia serta menggunakan teknik kecerdasan buatan (AI) yang dikenal dengan deepfake.

Baca Juga: Bantah Pesan Hoaks di WhatsApp, BUMN: Target Vaksinasi di Senayan Bukan Masyarakat Umum

Deepfake

Deepfake adalah teknologi pemanfaatan artificial inteligent (AI) yang bisa memanipulasi wajah dan suara seseorang dalam video atau konten digital lainnya dan mengubahnya sedemikian rupa.

Meskipun fitur Deep Nostalgia pada aplikasi MyHeritage cukup menghibur dan menyenangkan, aplikasi ini juga memunculkan kekhawatiran soal perkembangan teknologi deepfake di masa mendatang.

Pemerhati keamanan siber cum sfat Engagement and Learning Specialist di Engange Media, Yerry Niko Borang mengatakan bahwa teknologi deepfake ini bisa sangat berbahaya.

Baca Juga: 20 Aplikasi Paling Aman dan Tak Ambil Data Pribadi Penggunanya, Ada Bigo Live dan Signal

Yerry mengatakan bahwa deepfake bisa disalahgunakan untuk memproduksi konten-konten hoaks.

"Konsekuensinya akan tidak terbayangkan jika deepfake dipakai untuk menyebarkan hoax. Bayangkan jika Presiden muncul berpidato menyatakan perang baru dengan suatu negara. Video begini sudah bisa dibuat saat ini," kata Yerry melansir dari Kompas.com, Rabu (10/3/2021).

Menurutnya, AI yang memproses deepfake ini terus berkembang, salah satunya karena AI terus mendapat pasokan data yang pribadi dari berbagai aplikasi media sosial.

Konten dan identitas palsu

Berdasarkan laporan dari The Guardian, September 2019 lalu, firma AI Deeptrace menemukan sedikitnya 15.000 video deepfake yang beredar di internet.

Dari jumlah tersebut, 96 persen di antaranya merupakan video porno dengan 99 persennya menampilkan wajah seleb terkenal yang ditempel pada wajah artis porno.

Selain itu, deepfake juga dapat disalahgunakan untuk membuat identitas palsu yang sangat meyakinkan, namun palsu.

Baca Juga: Bocoran Uji Coba Fitur "Undo" di Twitter, Bagaimana Cara Kerjanya?

Jurnalis Bloomberg, Maisy Kinsley, yang memiliki profil di LinkedIn dan Twitter, diduga merupakan identitas fiktif yang merupakan hasil teknologi deepfake.

Akun LinkedIn palsu lainnya yakni Katie Jones yang mengaku bekerja di Pusat Studi Strategis dan Internasional diduga sebagai deepfake yang dibuat untuk operasi mata-mata asing.

Selain suara, deepfake juga bisa digunakan untuk memalsukan audio yang membuat suara dari tokoh masyarakat.

Maret 2019 lalu, kepala cabang perusahaan energi Jerman di Inggris kehilangan hampir 200.000 poundsterling atau sekitar Rp 4 miliar usai ditelepon oleh seseorang yang meniru suara bosnya.




Sumber : Kompas TV




BERITA LAINNYA



FOLLOW US




Gabung ke Channel WhatsApp KompasTV untuk update berita terbaru dan terpercaya.


VIDEO TERPOPULER

Close Ads x