Bahaya Menggunakan ChatGPT Tanpa Daya Kritis

Menyadari potensi dan juga risiko dari alat yang begitu powerfull

artificial intelligence typing hands realistic photo coming out from a blank laptop screen (DALL-E)

Sebagai penulis konten, menggunakan mesin pencari untuk riset adalah makanan sehari-hari. Setiap ingin menulis saya harus bisa jamin tulisan memiliki dasar dan argumentasi yang kuat berdasarkan referensi yang ada. Itu kenapa mesin pencari jadi sangat berguna untuk menemukan banyak referensi. Membacanya, mengulasnya dan mengkritisinya. Tapi kini, sejak munculnya ChatGPT banyak orang termasuk saya mulai jarang menggunakan mesin pencari. Sampai suatu ketika saya menyadari hal yang mengerikan.

Bagi yang belum terlalu paham apa itu ChatGPT, saya akan coba jelaskan singkat di sini. ChatGPT merupakan sebuah robot bercakapan (disebut Chat bot) yang dikembangkan oleh OpenAI, sebuah organisasi penelitian kecerdasan buatan asal California.

ChatGPT adalah produk kecerdasan kedua yang diluncurkan secara publik oleh OpenAI sejak Desember tahun lalu. Bot ini memiliki kemampuan untuk menjawab percakapan yang kita lakukan dengannya dengan sebuah model bahasa bernama GPT-3 yang juga dikembangkan OpenAI.

Mencetak Rekor Mencengangkan Meski Kontroversial

Sejak diluncurkan, ChatGPT menarik perhatian begitu banyak pengguna internet. ChatGPT bahkan mencapai angka 100 juta pengguna hanya dalam dua bulan. Angka ini adalah angka rekor terbaru mengalahkan Tiktok yang membutuhkan sembilan bulan untuk mencapai 100 juta pengguna. Sebagai perbandingan, Instagram sendiri baru mencapai 100 juta pengguna di usia dua setengah tahun. Ini adalah bukti betapa ChatGPT menarik perhatian jutaan orang di seluruh dunia.

Kehebohan itu tentu bukan tanpa alasan, ChatGPT ternyata mampu untuk menyederhanakan kebutuhan informasi para penggunanya. Jika dulu kita membutuhkan mesin pencari atau Search Engine, ChatGPT kini bisa menjadi mesin penjawab, alias Answer Engine. Seseorang tidak perlu lagi membuka banyak halaman untuk mendapatkan jawaban dari pertanyaan mereka. Cukup tanya ChatGPT maka jawaban akan muncul.

Lebih dari tanya jawab, ChatGPT juga bisa diinstruksikan untuk melakukan sesuatu. Seperti diminta untuk menulis sesuatu yang kreatif dan berseni. Membuat kode program. Menyusun prosedur, dan ribuan hal lain yang sebelumnya tidak serta merta bisa dilakukan dengan mesin pencari. ChatGPT dalam waktu singkat menjadi solusi bagi jutaan pengguna internet di seluruh dunia.

Namun beberapa orang juga khawatir jika ChatGPT akhirnya bisa menggusur pekerjaan jutaan orang lainnya. Kekhawatiran yang wajar sebab ChatGPT memang memiliki begitu banyak kemampuan yang akan menggantikan banyak profesi manusia. Ini memicu sikap defensif berbagai pihak sebab kehadirannya sangat kontroversial dan dianggap berbahaya.

Menariknya, sebagian orang juga menganggap ChatGPT adalah alat bantu yang telah lama ditunggu-tunggu. ChatGPT bisa menjadi asisten yang bisa diandalkan yang membuat seseorang makin produktif dan berkembang.

Kira-kira kamu ada di posisi yang mana? Pro kecerdasan buatan seperti ChatGPT atau Kontra?

Solusi kreasi konten

Terlepas dari kontroversi tentang kemampuannya dapat menggantikan peran banyak orang. Bagi kreator konten, ChatGPT adalah solusi. Solusi untuk apa? Solusi untuk membantu kreator konten menghasilkan karya. Sebab kemampuan ChatGPT sebenarnya adalah menghasilkan informasi. Dia menjawab pertanyaan. Dia memberikan solusi. Dia menyusun bahasa menjadi konten.

Bagi kreator konten, menemukan ide konten adalah tantangan berat yang harus dihadapi secara rutin. Bisa setiap hari, bisa setiap pekan, atau bulanan. Intinya tanpa ide konten yang baru, tidak ada konten baru. Ini bisa jadi masalah bagi kreator karena dia selalu diperhatikan audiens.

Sedangkan bagi saya, ChatGPT juga menjadi asisten kerja yang menarik. Saya bisa diskusi banyak hal dengannya. Saya bisa bertanya apapun yang saya suka. Saya bahkan bisa menemukan jawaban dari pertanyaan-pertanyaan yang mungkin saya bisa habiskan dengan membaca begitu banyak jurnal jika menggunakan cara lama.

Intinya, ChatGPT membuat saya lebih mudah untuk menulis konten dengan waktu yang singkat. Harap diingat bahwa saya tidak meminta ChatGPT menulis naskah untuk saya. Saya hanya memintanya menemukan jawaban-jawaban yang kemudian saya tulis dalam konten. Ibaratnya, ChatGPT adalah seorang ahli yang bisa saya wawancarai.

Tapi seiring waktu saya menggunakan kecerdasan buatan ini. Ada hal mengerikan yang saya sadari dan temukan. Ternyata ChatGPT memiliki sisi yang harus diwaspadai. Terutama dalam hal pertanggungjawaban.

Tanggungjawab dari sosok yang maya

Salah satu opini keras saya tentang kecerdasan buatan adalah apakah kita siap untuk mempercayai sosok seperti ChatGPT? Kebanyakan orang merasa mereka siap. Mereka akan percaya dengan apapun yang ChatGPT sampaikan. Bahkan meski yang ChatGPT katakan belum tentu benar.

Ambil kasus saja, kamu bisa bertanya pada ChatGPT tentang bagaimana melakukan investasi yang menguntungkan. ChatGPT tentu akan menjawabnya dengan langkah-langkah yang lengkap. Kamu bisa mengikuti seluruhnya. Tapi kemudian ternyata kamu mengalami kerugian, padahal kamu sudah melakukan sesuai dengan instruksi.

Pertanyaannya kemudian, apakah kamu bisa meminta ChatGPT untuk bertanggung jawab untukmu? Saat ini tentu saja tidak bisa. Padahal dialah yang memberimu instruksi untuk kamu lakukan.

Kasus seperti ini bukan tidak mungkin terjadi akibat ChatGPT. Saya yakin ada yang terjadi dan mungkin tidak hanya di industri keuangan dan investasi. Tapi juga diindustri lainnya.

Lalu bayangkan skenario konvensional. Kamu meminta panduan dari seorang penasehat investasi tentang bagaimana melakukan investasi yang menguntungkan. Dia memberimu panduan, lengkap dari awal sampai bagaimana melakukan pencairan dan bagaimana memutar kembali uangnya. Kamu mengikutinya, kamu percaya padanya. Kamu bahkan membayarnya untuk memberi instruksi dan panduan.

Setelah kamu melakukan apa yang dia sampaikan, ternyata hasil yang terjadi di luar dugaan. Kamu malah rugi besar bahkan terancam bangkrut. Apakah kamu bisa menuntutnya karena telah membuatmu rugi? Saya yakin kamu akan menuntutnya ke pengadilan dengan dugaan penipuan misalnya karena telah memberi panduan palsu yang merugikan orang.

Coba perhatikan, kamu bisa menuntut penasehat investasi itu karena dia adalah objek hukum. Dia bisa dijatuhi hukum akibat tingkah lakunya. Dia adalah manusia yang setuju dengan perundang-undangan dan sistem hukum yang berlaku sejak lahir hingga kematiannya.

Lalu bagaimana dengan ChatGPT? Karena dia bukan entitas yang terkena hukum, otomatis kamu tidak bisa menuntutnya atas kata-kata yang dia sampaikan. Dia bahkan tidak memiliki fisik dan tubuh. Oleh karena itu, kamu hanya bisa menuntut pihak yang telah mengembangkan ChatGPT yakni OpenAI atas kesalahan “produk” yang dikembangkannya.

Masalahnya, OpenAI sendiri pun tidak bisa mengatur apa yang ingin disampaikan oleh ChatGPT pada pengguna. Ibarat manusia, tidak ada yang bisa mengatur apa keinginannya, bahkan orangtuanya sekalipun. Perilaku kecerdasan buatan ChatGPT tidak tertebak, dan memang itulah yang diharapkan. Di masa depan, teknologi seperti ini malah dikembangkan untuk bisa berpikir dan bertindak secara mandiri.

ChatGPT tentu saja bisa menggantikan seluruh peran penasehat investasi tadi. Dia tahu bagaimana caranya menulis panduan investasi yang menguntungkan. Tapi dia bukan keceradasan buatan yang melakukan aktivitas finansial, ChatGPT adalah kecerdasan buatan dengan model pembahasaan. Dia menyusun kata dengan algoritma bukan dengan kesadaran intelektual.

Inilah yang kamu harus sadari. Kamu harus tahu bahwa ChatGPT tidak punya tanggung jawab moral dan intelektual atas apa yang dia sampaikan. Dia bahkan sebenarnya tidak tahu apa yang dia sampaikan, dia hanya tahu itu adalah pola algoritma untuk merespon stimulus percakapan yang kamu sampaikan.

Halusinasi dan bualan

Perilaku ChatGPT yang bisa dengan “meyakinkan” menyampaikan argumentasi dan kesimpulan meski informasinya salah adalah bentuk dari halusinasi. Para peneliti dan para pengguna ahli menyebutnya sebagai digital hallucination. Sebuah peristiwa ketika kecerdasan buatan menyampaikan sesuatu yang tidak ada basis realitanya sama sekali.

Para peneliti menyebut hal ini terjadi karena kecerdasan buatan dalam hal ini ChatGPT tidaklah rasional. Dia tidak tahu mana yang realita mana yang bukan. Dia hanya tahu model bahasa yang harus dihasilkan (generate). Jadi apapun yang disampaikan belum bisa dianggap sebagai proses intelejensia.

Intelejensia sendiri merupakan kemampuan manusia untuk belajar, menemukan alasan (reasoning), menyelesaikan masalah, memahami ide kompleks dan beradaptasi pada situasi yang baru. Semua proses ini menggunakan kemampuan mental seperti bahasa, ingatan, kreatifitas, logika, dan kecerdasan emosi.

Jawaban tentang intelejensia ini bahkan saya tulis berdasakan pertanyaan pada ChatGPT dengan penulisan kata yang salah dan tetap bisa dia jawab!

What is human intelegent [intelligent] (ChatGPT)

Coba bandingkan dengan jawaban definisi manusia melalui kamus yang saya cari di mesin pencari Google. Saya kutip via Wikipedia.

Human intelligence is the intellectual capability of humans, which is marked by complex cognitive feats and high levels of motivation and self-awareness.

Definisi ini berasal dari buku yang ditulis oleh Kirsi Tirri dan Petri Nokelainen dengan judul Measuring Multiple Intelegences and Moral Sensitivities in Education. Definisi ini sendiri juga merupakan hasil kesimpulan penulis berdasarkan definisi banyak ahli alias definisi kolektif yang punya kesamaan.

Disadari atau tidak, seluruh ilmu pengetahuan yang kita ketahui saat ini melalui proses yang sama. Pengetahuan berdasarkan pengamatan dari banyak orang. Lalu hasilnya secara alamiah diuji dan disepakati oleh beragam orang lain yang melakukan hal yang sama. Sampai akhirnya muncul definisi yang lebih universal untuk menjadi patokan bersama. Proses inilah yang tidak akan kita temukan di ChatGPT.

Jika kamu berharap ChatGPT bisa memberikan jawaban yang unik dari hasil pengamatannya sendiri, kamu tertipu kalau tidak salah paham. Alasannya karena ChatGPT juga bisa menjawab pertanyaan yang sama sesuka dia. Toh dia tidak mengerti mana yang sesuai fakta dan mana yang tidak. Dia hanya perlu menjawab pertanyaanmu. Jika kamu tidak setuju, kamu akan meminta jawaban berbeda. Lalu ChatGPT dengan mudah memberi jawaban yang lain sampai kamu puas.

Kengerian lain yang saya sadari adalah ketika saya berusaha untuk bisa menavigasi internet melalui ChatGPT. Saya bertanya pada ChatGPT tentang sebuah isu, lalu dia memberikan jawaban yang mengutip sebuah laporan.

Saya yang berusaha kritis kemudian menanyakan, “laporan siapa yang kamu (ChatGPT) maksud?” Pertanyaan seperti ini penting karena ini proses pengecekan fakta yang wajib dilakukan jurnalis atau penulis konten. Namun saya tidak bisa bagikan tangkapan layarnya karena berkaitan dengan klien kami.

ChatGPT kemudian menjawab laporan itu berasal dari dokumen blablabla. Saya kemudian bertanya lagi, “tahun berapakah laporan itu? Siapa yang menulis? Dan di mana saya bisa temukan dokumennya?”

ChatGPT lalu menanggapi, menjawab tahunnya, penulisnya juga dengan permintaan maaf karena dirinya tidak bisa melakukan pencarian internet karena keterbatasannya (keterbatasan informasi yang hanya sampai tahun 2021 dan tidak bisa berselancar di internet). Menariknya dia bersedia untuk memberikan alamat url-nya. Tentu saya mencoba klik alamatnya. Tapi nihil, tautan yang diberikan tidak mengantarkan pada halaman manapun.

Hanya ada dua kemungkinan, pertama, halaman yang dimaksud sudah diturunkan oleh pengelola situs. Kedua, memang ada kesalahan tautan alias ChatGPT tidak tahu secara pasti di mana dokumen itu berada.

Kemungkinan pertama bisa terjadi kalau-kalau dokumennya memang tua jadi sudah usang sehingga halamannya tidak lagi bisa diakses. Kemungkinan kedua juga bisa terjadi karena ChatGPT tidak bisa melakukan searching akurat.

Saya tentu kecewa jika tidak bisa menemukan sumber laporan yang dikutip oleh ChatGPT. Saya lalu coba meminta ChatGPT mencarikan referensi lain yang bisa saya dapatkan. Dia dengan menyakinkan, menyebutkan beragam referensi yang bisa saya gunakan.

Sampai suatu ketika saya menemukan ChatGPT mengutip sebuah situs berita berbahasa Inggris di Indonesia. Saya coba untuk menemukan tautannya dengan proses yang sama dan mengunjunginya. Ternyata nihil. Sama seperti sebelumnya.

Saya mulai curiga. Jangan-jangan ChatGPT benar-benar membual dengan menyakinkan. Dia memberi saya referensi, tapi referensi itu tidak benar-benar ada. Salah satu dasar kecurigaan saya adalah bagi perusahaan media menurunkan sebuah halaman lama itu sesuatu yang tidak etis. Mengingat pemberitaan bisa saja tetap relevan meski usianya 10 tahun lebih. Memang, kadang pertimbangan biaya dan relevansi biasanya media daring juga menghilangkan halaman-halaman tua. Tapi ini jarang, sebab arsip bagi media adalah aset yang sangat berharga.

Lalu saya coba buat cuitan terkait hal ini untuk mendapat klarifikasi dari media bersangkutan.

Memang tidak ada jawaban dari media tersebut. Tapi saya yakin, halaman itu tidak pernah ada.

Saya yang awalnya cukup optimis dengan ChatGPT mulai merasa ngeri. Lalu mulai berhati-hati. Saya pun beberapa kali menemukan artikel yang membahas peringatan yang sama. Salah satunya bahkan datang dari Oxford Briefings. Sebuah lembaga bantuan penulisan penelitian Oxford yang menyebutkan bahwa ChatGPT juga “mengarang” referensi akademik.

Bahkan di kalangan “hacker” di forum YCombinator (forumnya para pendiri Startup) mereka sudah mengendus keanehan ChatGPT sejak beberapa hari setelah diluncurkan. Salah satu user bernama msravi merasa ChatGPT membuat referensi yang tidak pernah ada.

Masalah kecerdasan buatan yang “liar” seperti ini sebenarnya bukan hal baru. Tahun 2016 yang lalu Microsoft mengembangkan chatbot bernama Tay.ai di Twitter. Lucunya, bot ini hanya bertahan satu hari sebelum akhirnya “dimatikan” karena tidak terkendali akibat melontarkan kata-kata rasis dan kasar setelah berinteraksi dengan pengguna twitter.

Apa yang terjadi dengan ChatGPT menurut saya adalah masalah serius jika tidak dihadapi dengan kritis. Sebab ini menyesatkan saya sebagai penulis konten yang sering kali harus menulis dengan cara jurnalistik atau akademis. Untungnya saya mengerti dan mengamati perkembangannya. Sedangkan bagi para pengguna ChatGPT lain yang tidak menyadari, mereka mungkin merasa biasa saja dengan referensi yang tidak pernah ada itu. Masalah akan muncul ketika mereka sadar bahwa referensi itu tidak pernah ada.

Ketika menyadari hal ini saya mulai menggunakan ChatGPT dengan cara yang berbeda. Saya tidak lagi berani untuk menanyakan sesuatu yang spesifik yang membutuhkan referensi khusus. Saya hanya berani untuk bertanya secara umum. Itu pun sebenarnya tidak memuaskan karena saya cenderung menulis sesuatu sesuai dengan referensi yang kuat.

Artinya, saya harus kembali ke kebiasaan lama. Yakni mencari secara manual referensi-referensi yang bisa menjadi basis tulisan-tulisan saya. Sialnya, saat ini Google terasa semakin sulit untuk menemukan jawaban. Referensi yang ada tidak langsung menjawab pertanyaan, dan cenderung berusaha memenuhi kebutuhan optimalisasi mesin pencari dibanding menjawab pertanyaan.

Simpulan

Keterbatasan ChatGPT sebenarnya menurut saya adalah kewajaran. Sebab ini adalah teknologi yang cukup baru yang tersedia untuk publik. Para pengembang juga terus mengawasi secara ketat bagaimana kecerdasan bisa “diatur”.

Kita tidak pernah tahu seperti apa kecerdasan buatan di masa mendatang. Sebenarnya banyak pihak yang pesimis dan takut.

Elon Musk sendiri beberapa tahun lalu mengungkap bahwa dirinya takut kecerdasan buatan bisa mengancam peradaban manusia. Tapi kacaunya, dia malah mendirikan OpenAI untuk kepentingan riset dan untuk publik yang memang awalnya adalah nonprofit. Sampai akhirnya dia kecewa ketika ternyata OpenAI menjadi untuk profit dan banyak dikendalikan oleh Microsoft (yang berinvetasi besar di sana).

Sedangkan pesaing seperti Google juga berusaha mengembangkan teknologi yang serupa sebagai respon untuk mempertahankan kedigdayaan mesin pencarinya. Mengingat sejak tahun 2022, bisnis konten berbasis kecerdasan buatan makin menjamur.

Canva meluncurkan fitur generator konten hanya dengan kata-kata. Notion juga tidak ketinggalan, meluncurkan fitur generator teks secara otomatis sesuai keinginan. Serta banyak lagi startup dan perusahaan digital lain yang meluncurkan fitur serupa.

Proses produksi konten kini telah berubah. Kecerdasan buatan mulai mendapatkan momentum, ketika tuntutan produksi konten semakin masif dan gigantik. Padahal kita saat ini sudah mengalami tsunami konten. Tenggelam di tengah konten yang entah konten mana yang harus kita konsumsi.

Ini adalah babak baru dalam peradaban manusia. Ketika kecerdasan buatan, ternyata memang telah ditunggu-tunggu kehadirannya. Asisten AI ala Jarvis mungkin bisa terwujud dalam satu dekade ini. Saya tidak bisa memprediksi, seperti apa dampaknya.

Saya tidak tahu apakah chatbot Google yang kabarnya akan diluncurkan akan bisa mengatasi hal ini. Sejauh ini sebenarnya Sydney, chatbot Microsoft yang disematkan di Bing kabarnya selalu bisa memberi jawaban lengkap dengan sitasinya. Tapi saat ini saya tidak mendapatkan aksesnya. Jadi sembari menunggu, saya hanya bisa berharap kecerdasan buatan benar-benar bisa menjadi asisten yang bisa diandalkan.

Satu hal yang pasti, sebagai manusia jangan sampai daya kritis menjadi hilang lalu menjadi malas.

Bagaimana menurutmu? Kalau ada sudut pandang atau komentar beri respon di bawah ya.

Jika kamu suka tulisan ini, jangan lupa untuk dukung saya dengan memberi tip di bawah. Saya berkomitmen untuk terus menulis dan menghasilkan konten tanpa halangan berbayar atau langganan.

--

--

Bagus Ramadhan
TEKNOIA — Inspirasimu untuk Berinovasi dan Bertumbuh

Content Performer with over 7 years experience, I've led content teams for 10+ tech brands, achieving 500,000+ traffic. Reach me at bagusdr@teknoia.com.