Deepfake : A High Stakes of Deception

Aliffiqri Agwar
HMIF ITB Tech
Published in
5 min readJul 22, 2020

Disusun oleh : Michel Fang dan M. Farras Hibban

Contoh Hasil Deepfake. (src : Wikipedia)

Mengenal Deepfake

Deepfake adalah teknik manipulasi media (umumnya video) dimana seseorang dalam media tersebut rupanya digantikan oleh orang lain. Ibaratnya adalah photoshop untuk video.

Deepfake, gabungan kata “deep learning” dan “fake”, menggunakan teknologi AI bernama deep learning untuk membuat rekayasa media. Teknik deep learning yang digunakan adalah generative adversarial networks (GANs).

Kebanyakkan teknologi deepfake digunakan untuk pornografi, perusahaan AI Deeptrace menemukan sekitar 14.678 video deepfake pada bulan September 2019. 96% dari video tersebut adalah video pornografi, dengan wajah artis yang di-”tempel” ke video-video tersebut.

Perkembangan Deepfake

Deepfake pertama kali muncul pada tahun 2017, dengan dibuatnya subreddit Deepfake untuk membagikan video-video eksplisit dengan wajah artis-artis. Pada tahun 2018, Jordan Peele dan BuzzFeed bekerja sama untuk membuat PSA (Public Service Announcement, ga tau indonya apa lol), dimana Jordan Peele menyampaikan bahaya teknologi deepfake untuk berita palsu dan misinformasi. Dalam PSA ini, Jordan Peele menyuarakan pesannya melalui figur Presiden Amerika Serikat ke-44, Barack Obama, dengan teknologi deepfake melalui aplikasi FakeApp.

Potensi Bahaya Deepfake

Sangat banyak bahaya yang dapat ditimbulkan oleh deepfake, karena teknologi ini allows someone to ‘do’ something he/she actually didn’t. Hal ini dapat dimanfaatkan untuk memanipulasi penyebaran informasi, sehingga dapat menggiring opini publik, dan lain-lain. Beberapa potensi bahaya Deepfake adalah pornografi dan penyebaran informasi palsu (fake news, fake medical statement (e.g. concerning covid; for political purposes), fake criminal video, fake political statements, fake warfare etc.)

Dalam beberapa contoh kasus di bawah ini menjelaskan betapa berbahayanya deepfake dalam menggiring opini:

Kudeta Presiden Gabon

Pada Agustus 2018, Presiden Gabon Ali Bongo terserang stroke saat sedang berkunjung ke Saudi Arabia. Kondisi kesehatan Ali Bongo ditutupi oleh pemerintah; tidak ada transparansi mengenai kondisi kesehatannya tersebut. Pada Desember 2018, Bongo muncul kembali dalam video yang tersebar di publik. Namun dalam video tersebut, gerakan Bongo terlihat aneh, sehingga memunculkan opini bahwa video tersebut merupakan hasil rekaan. Beberapa hari kemudian, beberapa anggota militer Gabon sepakat bahwa video ini cukup dijadikan sebagai alasan bahwa Bongo tidak lagi cocok untuk menjadi presiden, dan melancarkan kudeta, pada 6 Januari 2020.

George Floyd Fake Video

Seorang kandidat parlemen dari Partai Republikan, Winnie Heartstrong mempublikasikan sebuah dokumen yang berisi sebuah teori bahwa video yang melibatkan kematian George Floyd yang sedang viral pada akhir-akhir ini merupakan video rekaan. Dalam dokumen tersebut disebutkan bahwa George Floyd telah meninggal sejak sebelum 25 Mei. Selain itu, disebutkan pula bahwa polisi Derek Chauvin pada video tersebut merupakan orang lain, yakni Ben Bailey, seorang pembawa acara pada TV Show bernama Cash Cab.

Rana Ayyub Case

Pada April 2018, beredar video pornografi yang menampilkan wajah seorang jurnalis India bernama Rana Ayyub. Video tersebut menyebar luas pada berbagai sosial media seperti Facebook, Twitter, dan WhatsApp. Tidak hanya itu, akibat video tersebut, banyak bermunculan komentar-komentar maupun pesan-pesan yang merendahkan dirinya. Informasi pribadi seperti alamat rumah dan nomor telepon pun juga tersebar pada kolom komentar.

Tidak Semua Deepfake Menimbulkan Kontra

Bantuan di Tenaga Medis

Generative Adversarial Networks (GAN) juga mulai digunakan di bidang medis. Para peneliti dari NVIDIA dan MGH and BWH Center for Clinical Data Science, berhasil menggunakan GAN untuk membuat hasil scan MRI buatan dari otak yang memiliki tumor. Hasil scan buatan ini dapat digunakan untuk training AI dalam mendeteksi kondisi medis.

Salvador Dali “Hidup” Kembali

Pada tahun 2019, Museum Seni Salvador Dali menggunakan deepfake untuk “menghidupkan” kembali pelukis surealis Salvador Dalí, dimana pengunjung dapat berinteraksi dengan beliau.

Oxbotica

Belakangan ini, Oxbotica, perusahaan perangkat lunak untuk kendaraan otonom, menggunakan teknologi deepfake untuk menghasilkan berbagai skenario jalanan untuk membantu menguji kendaraan tanpa pengemudi dengan aman. Dengan deepfake, skenario jalanan yang diproduksi dapat bermacam-macam, seperti jalanan dalam kondisi buruk atau cuaca yang tidak mendukung. Skenario-skenario tersebut digunakan untuk menguji dan melatih kendaraan otonom tanpa harus melakukan uji coba di dunia nyata.

Usaha dalam Mendeteksi Deepfake

Saat ini berbagai cara untuk mendeteksi Deepfake pada sebuah video terus dikembangkan. Pada September 2019, Facebook, bekerja sama the Partnership on AI, Microsoft, dan beberapa universitas seperti MIT, UC Berkeley, Oxford, Cornell, menggelar Deepfake Detection Challenge, yakni sebuah challenge yang bertujuan untuk menghasilkan sebuah teknologi berbasis AI yang mampu mendeteksi deepfake. Challenge ini menarik partisipan untuk membuat model AI dan mem-provide dataset untuk melakukan training pada model AI nya. Hasil terbaik untuk menebak apakah sebuah video merupakan deepfake atau bukan sejauh ini memiliki tingkat akurasi sebesar 65.18%. Angka ini tidak begitu encouraging, sehingga perlu dilakukan upaya-upaya untuk menghindarkan diri kita dari ancaman deepfake ini.

Cara Mencegah Anda Menjadi Korban Deepfake

  • Atur akun dalam mode private. Hal ini akan membatasi orang-orang yang tidak anda percaya dari mengambil foto anda secara sembarangan. Filter orang-orang terdekat/terpercaya saja yang dapat melihat foto-foto yang anda unggah.
  • Batasi apa yang kamu bagikan pada media sosial. Semakin banyak dan variatif foto yang kamu unggah, akan memberikan semakin banyak data pada deepfake yang dapat disalahgunakan.
  • Lapor ke pihak yang berwenang / report apabila menemukan penyalahgunaan identitas

For Further Reading

References

--

--