Yapay Zeka ve Dezenformasyon: Neden İşe Yarıyor ve Nasıl Tespit Edilir?

Dijital Düşün
Dijital Düşün
Published in
5 min readAug 31, 2023

Çevrimiçi gerçekleri belirlemenin giderek daha zorlaştığını belirtmektedir. Ancak bununla başa çıkmak için atabileceğiniz adımlar vardır.

Oscar Gonzalez, video oyunları, komplo teorileri, yanıltmaca ve kripto paralar hakkında yazılar yazan Teksaslı bir yazardır. 2024 başkanlık seçiminden bir buçuk yıl önce, Cumhuriyetçi Ulusal Komite Başkan Joe Biden’a karşı saldırı reklamları yayınlamaya başladı. Ancak bu sefer komite farklı bir şey yaptı. Generatif AI’yi kullanarak, Biden’ın tekrar seçilmesi durumunda ülkenin nasıl görüneceğine dair alternatif bir gerçeklikle dolu bir politik reklam oluşturdu. Reklam, göçmenlerin ABD sınırlarını büyük gruplar halinde geçtiği, dünya savaşının yaklaşmakta olduğu ve ABD şehirlerinin boş sokaklarında askerlerin devriye gezdiği görüntülerle dolu. Videonun sol üst köşesinde, gözden kaçması kolay olan küçük, soluk bir uyarı notu bulunuyor: “Tamamen AI imajıyla oluşturuldu.”

Politik reklamlar, AI tarafından oluşturulan yanıltmaca içeriğinin ortaya çıktığı tek yer değil. Ve her zaman bir uyarı etiketi taşımayacaklar. Örneğin, Papa Francis’in şık bir mont giydiği sahte resimler Mart ayında viral oldu, dini liderin lüks moda markası Balenciaga’dan bir kıyafet sergilediği yanıltıcı bir şekilde önerildi. Paris sokaklarının çöp yığınlarıyla dolu olduğunu gösteren bir TikTok videosu bu ay 400.000'den fazla görüntülendi ve tüm görüntüler tamamen sahteydi.

Generatif AI araçları, OpenAI’nin ChatGPT’si ve Google Bard gibi, 2023'te en çok konuşulan teknoloji oldu ve bilgisayar programlamadan gazeteciliğe, eğitimden eğlenceye kadar hemen hemen her alanda kullanılıyor. Teknoloji, sosyal medya gönderileri, büyük TV şovları ve kitap yazma için kullanılıyor. Microsoft gibi şirketler AI’ye milyarlarca dolar yatırım yapıyor.

AI’nın gerçeklikle arasındaki çizgiyi bulanıklaştırmasıyla, halkın görüşünü manipüle edebilen ve demokratik süreçleri bozabilen yanıltmaca kampanyalarında ve derin sahte içeriklerde bir artış görmekteyiz. Blackbird.AI’ın CEO’su ve kurucu ortağı olan Wasim Khaled, “Bu gerçeklik saptırması, halkın güvenini zayıflatma tehdidinde bulunuyor ve önemli toplumsal ve etik zorluklara yol açıyor” dedi.

AI yanıltmacası nedir ve neden etkilidir?

Teknoloji her zaman yanıltmaca için bir araç olmuştur. Bir akrabadan gelen ve deli komplo teorileriyle dolu bir e-posta, COVID-19 hakkında Facebook gönderileri veya posta yoluyla oy kullanma hakkında yanıltıcı iddiaları yaymak için robocall’ler olsun, halkı kandırmak isteyenler teknolojiyi kullanacaklardır. Bu, sosyal medyanın yanıltmaca satıcıları için rampalı bir dağıtım aracı olarak hizmet etmesi nedeniyle son yıllarda ciddi bir sorun haline geldi. ABD Genel Cerrahı Dr. Vivek Murthy, 2021'de COVID yanıltmacasının hayatları riske attığını belirterek bunu “acil bir tehdit” olarak nitelendirdi.

Generatif AI teknolojisi mükemmel değil — AI sohbet botları yanlış cevaplar verebilir ve AI tarafından oluşturulan resimler uncanny valley görünümüne sahip olabilir — ancak kullanması kolaydır. Bu kullanım kolaylığı, generatif AI araçlarını kötüye kullanma için uygun hale getirir.

AI tarafından oluşturulan yanıltmaca farklı formlarda gelir. Mayıs ayında, Rus devlet kontrolündeki haber ajansı RT.com, Washington, DC’deki Pentagon yakınlarında bir patlama olduğuna dair sahte bir resim tweetledi. NBC tarafından alıntılanan uzmanlar, resmin muhtemelen AI tarafından oluşturulduğunu ve sosyal medyada viral olduğunu ve borsada bir düşüşe neden olduğunu söylüyor.

NewsGuard adlı bir organizasyon, “güvenilmez AI tarafından oluşturulan haber ve bilgi siteleri” olarak nitelendirdiği 300'den fazla site buldu. Bu sitelerin genel ama meşru görünen isimleri var, ancak üretilen içerik ünlü ölüm hileleri ve diğer sahte olaylar gibi bazı yanıltıcı iddiaları içeriyor.

Bu örnekler, daha bilgili çevrimiçi kullanıcılara bariz sahte gibi görünebilir, ancak AI tarafından oluşturulan içerik gelişiyor ve tespit edilmesi daha zor hale geliyor. Ayrıca, propaganda aracılığıyla bir gündemi ilerletmeye çalışan kötü niyetli aktörlere yardımcı oluyor.

Georgia Tech’in Etkileşimli Bilgi İşlem Okulu’nda öğretim görevlisi olan Munmun de Choudhury, “AI tarafından oluşturulan yanıltmaca aslında daha büyük bir duygusal çekiciliğe sahip” dedi.

Generatif AI kullanarak yanıltmaca kalitesini artırabilecek kötü aktörler var, ancak AI’nın yanıltıcı bilgi oluşturması için ona söylenmesi gerekmiyor. Kendi başına yapar ve bu bilgi bilmeden yayılır.

Washington Üniversitesi Bilgi Okulu’nda öğretim görevlisi olan Javin West, Mayıs ayında Mini MisinfoDay sunumunda, “Yanıltmaca her zaman kasıtlı değil. AI kendi yanıltıcı bilgisini oluşturabilir, bu bir halüsinasyon olarak adlandırılır” dedi.

AI bir göreve verildiğinde, gerçek dünya verilerine dayanarak bir yanıt oluşturması beklenir. Ancak bazı durumlarda, AI kaynakları uydurur — yani “halüsinasyon” yapar. Bu, var olmayan belirli kitaplara veya The Guardian gibi tanınmış web sitelerinden gibi görünen haber makalelerine yapılan referanslar olabilir.

Google’ın Bard’ı, Mart ayında halka sunulmadan önce AI’yi test eden şirket çalışanlarıyla ters düştü. Onu deneyenler, teknolojinin aceleyle piyasaya sürüldüğünü ve Bard’ın bir “patolojik yalancı” olduğunu söylediler. Ayrıca bir uçağı nasıl indireceğiniz veya scuba dalışı nasıl yapacağınız konusunda kötü, hatta tehlikeli tavsiyelerde bulundu.

AI tarafından oluşturulan içeriğin inandırıcı ve çekici olması yeterince kötü. Ancak bu sahte içeriğin gerçek olduğuna inanma ihtiyacı, onun viral hale gelmesine yardımcı oluyor.

AI yanıltmacası hakkında ne yapmalı?

AI yanıltmacasıyla mücadele etme ve genel olarak AI’nın tehlikeleri konusunda, bu araçların geliştiricileri bu teknolojinin neden olabileceği herhangi bir zararı azaltmaya çalıştıklarını söylüyorlar, ancak aynı zamanda niyetlerine aykırı hareketlerde de bulundular.

ChatGPT’nin yaratıcısı OpenAI’ye milyarlarca dolar yatırım yapan Microsoft, Mart ayında 10.000 çalışanını işten çıkardı, bu da AI’nın Microsoft ürünlerinde kullanılırken etik ilkelere uyulmasını sağlama sorumluluğuna sahip olan ekibi de içeriyordu.

Haziran ayında Freakonomics Radio podcast’inde işten çıkarmalar hakkında sorulduğunda, Microsoft CEO’su Satya Nadella, AI güvenliğinin ürün yapmanın kritik bir parçası olduğunu söyledi.

Teknolojiyi yaratan şirketler, AI riskini azaltma konusunda çalıştıklarını söylüyorlar. Google, Microsoft, OpenAI ve Anthropic, bir AI güvenliği ve araştırma şirketi, 26 Temmuz’da Frontier Model Forum’u kurdu. Bu grubun amacı, AI güvenliği araştırmalarını ilerletmek, en iyi uygulamaları belirlemek ve politika yapıcılar, akademisyenler ve diğer şirketlerle işbirliği yapmaktır.

Ancak hükümet yetkilileri de AI güvenliği konusunu ele almayı planlıyor. ABD Başkan Yardımcısı Kamala Harris, Mayıs ayında Google, Microsoft ve OpenAI liderleriyle AI’nın potansiyel tehlikeleri hakkında bir araya geldi. İki ay sonra, bu liderler Biden yönetimine AI risklerini azaltma konusunda “gönüllü bir taahhütte” bulundular. Avrupa Birliği, Haziran ayında teknoloji şirketlerinin yasayı geçirmeden önce AI tarafından oluşturulan içeriği etiketlemeye başlamasını istediğini söyledi.

Gen AI yanıltmacasından kaçınmak için ne yapabilirsiniz?

AI tarafından oluşturulan yanıltmaca içeriğini tespit etmek için kullanılabilen AI araçları var, ancak henüz yeterli değiller. De Choudhury, bu yanıltmaca tespit araçlarının, AI tarafından oluşturulan yanıltmacayla başa çıkmak için daha fazla sürekli öğrenmeye ihtiyaç duyduğunu belirtiyor.

Temmuz ayında, Open AI’nin AI tarafından yazılmış metni tespit etmek için kendi aracı, düşük doğruluk oranını gerekçe göstererek şirket tarafından kaldırıldı.

Khaled, bir içeriğin AI tarafından oluşturulup oluşturulmadığını belirlemenin yardımcı olabileceğini söylüyor, biraz şüphecilik ve detaylara dikkat. “AI tarafından oluşturulan içerik, ileri düzeyde olsa da, genellikle ince tuhaflıklar veya tutarsızlıklar gösterir,” dedi. “Bu işaretler her zaman mevcut veya fark edilir olmayabilir, ancak bazen AI tarafından oluşturulan içeriği ele verebilirler.”

AI tarafından oluşturulup oluşturulmadığına karar verirken dikkate almanız gereken dört şey:

  • AI tuhaflıklarını arayın: Garip ifadeler, alakasız sapmalar veya genel anlatıya tam olarak uymayan cümleler, AI tarafından yazılan metnin işaretleridir. Resimlerde ve videolarda, aydınlatma değişiklikleri, garip yüz hareketleri veya arka planın garip bir şekilde birleştirilmesi, AI ile yapıldığını gösterebilir.
  • Kaynağı göz önünde bulundurun: AI tarafından oluşturulan içerik, genellikle meşru olmayan veya daha az bilinen kaynaklardan gelir. Eğer bir haber makalesi veya video, CNN, BBC veya başka bir büyük haber kuruluşundan gelmiyorsa, içeriğin doğruluğunu kontrol etmek için biraz daha fazla çaba sarf etmelisiniz.
  • Kendi araştırmanızı yapın: Eğer bir şey doğru görünmüyorsa, başka kaynaklardan kontrol edin. Özellikle sosyal medyada paylaşılan içerik için bu önemlidir.
  • Güvendiğiniz kişilerle tartışın: Eğer bir şey hakkında emin değilseniz, başkalarının ne düşündüğünü görmek için onlarla paylaşın. Bu, AI tarafından oluşturulan içeriği tespit etmenize yardımcı olabilir.

*Yazı orjinalinden ChatGPT ile Türkçe’ye çevrilmiştir.

Kaynak: https://www.cnet.com/news/misinformation/ai-misinformation-why-it-works-and-how-to-spot-it/?utm_source=flipboard&utm_content=topic%2Fsocialmediamarketing

--

--