Deepfake : A High Stakes of Deception
Disusun oleh : Michel Fang dan M. Farras Hibban
Mengenal Deepfake
Deepfake adalah teknik manipulasi media (umumnya video) dimana seseorang dalam media tersebut rupanya digantikan oleh orang lain. Ibaratnya adalah photoshop untuk video.
Deepfake, gabungan kata “deep learning” dan “fake”, menggunakan teknologi AI bernama deep learning untuk membuat rekayasa media. Teknik deep learning yang digunakan adalah generative adversarial networks (GANs).
Kebanyakkan teknologi deepfake digunakan untuk pornografi, perusahaan AI Deeptrace menemukan sekitar 14.678 video deepfake pada bulan September 2019. 96% dari video tersebut adalah video pornografi, dengan wajah artis yang di-”tempel” ke video-video tersebut.
Perkembangan Deepfake
Deepfake pertama kali muncul pada tahun 2017, dengan dibuatnya subreddit Deepfake untuk membagikan video-video eksplisit dengan wajah artis-artis. Pada tahun 2018, Jordan Peele dan BuzzFeed bekerja sama untuk membuat PSA (Public Service Announcement, ga tau indonya apa lol), dimana Jordan Peele menyampaikan bahaya teknologi deepfake untuk berita palsu dan misinformasi. Dalam PSA ini, Jordan Peele menyuarakan pesannya melalui figur Presiden Amerika Serikat ke-44, Barack Obama, dengan teknologi deepfake melalui aplikasi FakeApp.
Potensi Bahaya Deepfake
Sangat banyak bahaya yang dapat ditimbulkan oleh deepfake, karena teknologi ini allows someone to ‘do’ something he/she actually didn’t. Hal ini dapat dimanfaatkan untuk memanipulasi penyebaran informasi, sehingga dapat menggiring opini publik, dan lain-lain. Beberapa potensi bahaya Deepfake adalah pornografi dan penyebaran informasi palsu (fake news, fake medical statement (e.g. concerning covid; for political purposes), fake criminal video, fake political statements, fake warfare etc.)
Dalam beberapa contoh kasus di bawah ini menjelaskan betapa berbahayanya deepfake dalam menggiring opini:
Kudeta Presiden Gabon
Pada Agustus 2018, Presiden Gabon Ali Bongo terserang stroke saat sedang berkunjung ke Saudi Arabia. Kondisi kesehatan Ali Bongo ditutupi oleh pemerintah; tidak ada transparansi mengenai kondisi kesehatannya tersebut. Pada Desember 2018, Bongo muncul kembali dalam video yang tersebar di publik. Namun dalam video tersebut, gerakan Bongo terlihat aneh, sehingga memunculkan opini bahwa video tersebut merupakan hasil rekaan. Beberapa hari kemudian, beberapa anggota militer Gabon sepakat bahwa video ini cukup dijadikan sebagai alasan bahwa Bongo tidak lagi cocok untuk menjadi presiden, dan melancarkan kudeta, pada 6 Januari 2020.
George Floyd Fake Video
Seorang kandidat parlemen dari Partai Republikan, Winnie Heartstrong mempublikasikan sebuah dokumen yang berisi sebuah teori bahwa video yang melibatkan kematian George Floyd yang sedang viral pada akhir-akhir ini merupakan video rekaan. Dalam dokumen tersebut disebutkan bahwa George Floyd telah meninggal sejak sebelum 25 Mei. Selain itu, disebutkan pula bahwa polisi Derek Chauvin pada video tersebut merupakan orang lain, yakni Ben Bailey, seorang pembawa acara pada TV Show bernama Cash Cab.
Rana Ayyub Case
Pada April 2018, beredar video pornografi yang menampilkan wajah seorang jurnalis India bernama Rana Ayyub. Video tersebut menyebar luas pada berbagai sosial media seperti Facebook, Twitter, dan WhatsApp. Tidak hanya itu, akibat video tersebut, banyak bermunculan komentar-komentar maupun pesan-pesan yang merendahkan dirinya. Informasi pribadi seperti alamat rumah dan nomor telepon pun juga tersebar pada kolom komentar.
Tidak Semua Deepfake Menimbulkan Kontra
Bantuan di Tenaga Medis
Generative Adversarial Networks (GAN) juga mulai digunakan di bidang medis. Para peneliti dari NVIDIA dan MGH and BWH Center for Clinical Data Science, berhasil menggunakan GAN untuk membuat hasil scan MRI buatan dari otak yang memiliki tumor. Hasil scan buatan ini dapat digunakan untuk training AI dalam mendeteksi kondisi medis.
Salvador Dali “Hidup” Kembali
Pada tahun 2019, Museum Seni Salvador Dali menggunakan deepfake untuk “menghidupkan” kembali pelukis surealis Salvador Dalí, dimana pengunjung dapat berinteraksi dengan beliau.
Oxbotica
Belakangan ini, Oxbotica, perusahaan perangkat lunak untuk kendaraan otonom, menggunakan teknologi deepfake untuk menghasilkan berbagai skenario jalanan untuk membantu menguji kendaraan tanpa pengemudi dengan aman. Dengan deepfake, skenario jalanan yang diproduksi dapat bermacam-macam, seperti jalanan dalam kondisi buruk atau cuaca yang tidak mendukung. Skenario-skenario tersebut digunakan untuk menguji dan melatih kendaraan otonom tanpa harus melakukan uji coba di dunia nyata.
Usaha dalam Mendeteksi Deepfake
Saat ini berbagai cara untuk mendeteksi Deepfake pada sebuah video terus dikembangkan. Pada September 2019, Facebook, bekerja sama the Partnership on AI, Microsoft, dan beberapa universitas seperti MIT, UC Berkeley, Oxford, Cornell, menggelar Deepfake Detection Challenge, yakni sebuah challenge yang bertujuan untuk menghasilkan sebuah teknologi berbasis AI yang mampu mendeteksi deepfake. Challenge ini menarik partisipan untuk membuat model AI dan mem-provide dataset untuk melakukan training pada model AI nya. Hasil terbaik untuk menebak apakah sebuah video merupakan deepfake atau bukan sejauh ini memiliki tingkat akurasi sebesar 65.18%. Angka ini tidak begitu encouraging, sehingga perlu dilakukan upaya-upaya untuk menghindarkan diri kita dari ancaman deepfake ini.
Cara Mencegah Anda Menjadi Korban Deepfake
- Atur akun dalam mode private. Hal ini akan membatasi orang-orang yang tidak anda percaya dari mengambil foto anda secara sembarangan. Filter orang-orang terdekat/terpercaya saja yang dapat melihat foto-foto yang anda unggah.
- Batasi apa yang kamu bagikan pada media sosial. Semakin banyak dan variatif foto yang kamu unggah, akan memberikan semakin banyak data pada deepfake yang dapat disalahgunakan.
- Lapor ke pihak yang berwenang / report apabila menemukan penyalahgunaan identitas
For Further Reading
- Deepfake
- Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared.
- Why Deepfakes Are A Net Positive For Humanity
- FTC says the tech behind audio deepfakes is getting better
- Deepfake For Good: CannyAI Taps VDR Tech To Engage Audiences In Any Language | Technology News
- Mona Lisa ‘brought to life’ with deepfake AI
References
- https://edition.cnn.com/interactive/2019/01/business/pentagons-race-against-deepfakes/
- https://www.google.com/amp/s/www.albawaba.com/amp/news/military-coup-gabon-inspired-potential-deepfake-video-our-political-future-1284760
- https://www.technologyreview.com/2019/10/10/132667/the-biggest-threat-of-deepfakes-isnt-the-deepfakes-themselves/amp/
- https://www.motherjones.com/politics/2019/03/deepfake-gabon-ali-bongo/
- GOP House candidate publishes 23-page report claiming George Floyd death was deepfake video
- https://www.huffingtonpost.in/rana-ayyub/deepfake-porn_a_23595592/
- https://www.washingtonpost.com/technology/2018/12/30/fake-porn-videos-are-being-weaponized-harass-humiliate-women-everybody-is-potential-target/?outputType=amp
- https://www.cbsnews.com/news/doctored-nancy-pelosi-video-highlights-threat-of-deepfake-tech-2019-05-25/
- https://s3.eu-west-2.amazonaws.com/rep2018/2018-the-state-of-deepfakes.pdf
- https://www.vice.com/en_us/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman
- https://www.huffpost.com/entry/deepfake-porn-heres-what-its-like-to-see-yourself_n_5d0d0faee4b0a3941861fced
- https://www.fastcompany.com/90240746/deepfakes-for-good-why-researchers-are-using-ai-for-synthetic-health-data
- https://www.theverge.com/2019/5/10/18540953/salvador-dali-lives-deepfake-museum
- Deepfake’ technology used to advance autonomous vehicles
- https://www.forbes.com/sites/simonchandler/2020/03/09/why-deepfakes-are-a-net-positive-for-humanity/#787a52302f84
- https://ai.facebook.com/blog/deepfake-detection-challenge/
- https://www.outlookindia.com/newsscroll/facebook-ai-model-achieves-65-accuracy-to-detect-deepfake-videos/1865611
- https://www.cogitotech.com/deepfake-detection-services/
- 9 deepfake scams and how to avoid them in 2020