İyi, Kötü ve Çirkin: Yapay Zekâ ve Etik

Kaynak CC BY-SA 2.0

Yapay zekâ etiği denince akla hemen felaket senaryoları geliyor. Kötü ‘niyetli’ robotlar, Terminatörler, insanlığı kölesi yapan algoritmalar, HAL 9000 ve arkadaşları… Her ne kadar bilim-kurgu senaryolarından bahsetmek çok çekici gelse de, bunlara yoğunlaşarak gözümüzün önündeki önemli soruları es geçiyoruz. Yapay zekâ etiği sadece gelecek dünya ile ilgili değil; aksine şu anda yaşadığımız dünyanın bir parçası ve günlük hayatımız üzerindeki etkisi — biz her zaman hissetmesek de — çok büyük. Sorgulamadan hayatımıza dahil ettiğimiz ve kullandığımız teknolojiler bizimle ilgili kararlar verirken birçok değer yargısında bulunuyorlar ancak işin bu etik kısmı çoğunlukla göz ardı ediliyor.

Mesela bugün yapay zekâ kullanan algoritmalar sizin için ne gibi kararlar verdiler? Google’da bir arama yaptınız (belki robotlarla, belki de bir ilacın yan etkisi ile ilgili). Aramanın sonuçları rastgele değil, Google algoritmasının belirli kurallara göre sıraya koyduğu bilgiye erişiminizi sağladı. Belki aradığınız bilgi bir blogda paylaşılmıştı ama Google onu 25. sayfaya koyduğu için bunu hiç görmediniz. Facebook’a girdiniz, Facebook size bazı arkadaşlarınızın bazı paylaşımlarını göstermeyi tercih etti. Sizin belki de çok önemli paylaşımlardan hiç haberiniz olmadı çünkü arkadaşlarınız paylaşsa da Facebook algoritması bunları yeterli derecede ‘tepki vermeye değer’ görmedi. Google yaptığınız aramalardan sizin iş aradığınız sonucuna vardı ve reklam olarak size iş ilanları göstermeye başladı. Ama sizin profilinizi (belki sadece kadın olduğunuz için) yüksek gelirli CEO işlerine uygun bulmadı ve bu tarz ilanlardan sizi haberdar bile etmedi. Bu arada banka kredisi başvurusu yapmıştınız ya. Banka, risk analizi yapan bir algoritmayı kullanarak, neden olduğuna dikkat bile etmeden o başvurunuzu reddetti — çünkü “bilgisayar böyle dedi”.

Bu ve benzeri birçok algoritmik karar, içeriğinde ya da sonucunda değer yargıları bulunduruyor. İşte burada işin etik kısmına giriyoruz. Çok kısa bir tanımını yapmak gerekirse, etik doğru ve yanlış davranışların ne olduğunu sistematik bir şekilde analiz eden ve belirleyen felsefe dalı. Dolayısıyla varsaydığımız değer yargılarını savunmak, bunların yerinde olup olmadığını analiz etmek etik alanına giriyor. Yapay zekânın yukarıda bahsedilen kullanım örneklerindeki değer yargıları bu teknolojilerin etik/doğru kullanılıp kullanmadığı sorusunu doğuruyor. Bilgiye erişimimizin artık neredeyse yalnızca Google, Facebook ve Twitter gibi platformlar sayesinde olduğunu kabul edersek, bu platformların algoritmalarındaki değer yargıları bizim dünyamızı büyük ölçüde şekillendiriyor. Yüksek gelirli iş fırsatlarını toplumun belirli bir kesimine göstermemek, bu kesimin (farkında bile olmadan) belirli iş fırsatlarından mahrum bırakılmasına ve dolayısıyla haksızlığa sebep oluyor. Bunlar yaygınlaşan yapay zeka kullanımının karşımıza çıkardığı etik soru(n)lardan sadece bazıları.

Yapay Zekâ ve Robot Etiği

Yapay zekâ ve robot etiği dediğimizde aslında şundan bahsediyoruz: Algoritmalar nasıl yazılırsa toplum ve birey için iyi ve doğru kararlar ve eylemler ile sonuçlanır? Yapay zekâ kullanan teknolojilerin araştırma, geliştirme, tasarım ve üretim süreci nasıl iyi ve doğru şekilde ilerler? Bu iki soru, yapay zekâ ve robot etiğinin iki ana konusunu da temsil ediyor: (1) etik içerik ve (2) etik süreç. Etik içerik, araştırılan, geliştirilen, tasarlanan ve üretilen teknolojinin etik olması için neler yapılması gerektiğine odaklanıyor. Etik süreç ise, bu araştırma, geliştirme, tasarım ve üretim sürecinin etik bir şekilde sürdürülmesi ile ilgileniyor. Örnek olarak Facebook’un 2012’de yaptığı “mood experiment”ını (ruh hali deneyini) ele alabiliriz. Facebook, kullanıcılarını A ve B olmak üzere iki gruba ayırarak, bir hafta süre ile bu gruplardan birine ağırlıklı olarak negatif/mutsuz içerik gösterirken diğerine ağırlıklı olarak pozitif/mutlu içerik göstermişti. Bir haftanın sonunda negatif içerik gösterilen gruptakiler daha çok negatif paylaşımlar yaparken, pozitif içeriğe maruz kalanlar daha pozitif paylaşımlar yaptılar.

Bu deneyde hem etik içerik hem de etik süreç sorunlarından bahsedebiliriz. Kullanıcıların ruh hallerini, bambaşka bir amaç için kullandıkları bir platformu manipüle ederek kontrol etmeyi hedefleyen bir teknoloji, eğer sadece iyi bir amaç uğruna kullanılmaz ise, beraberinde çok ciddi etik sorunlar getirecektir. Burada geliştirilen sistemin kendisi ‘kötü’ olmasa da bu sistemi geliştirirken kullanım alanı ile ilgili sınırlamalar getirmek kötüye kullanımını engellemek için gerekli. Peki ya bu sistemi geliştirmedeki etik süreç? Facebook bu deneyi yaparken kullanıcılara haber vermediği ve onların onayını almadığı gibi, kullanıcıların başına gelebilecek zararları da göz ardı etmiş oldu. Ruhsal olarak zorluklar yaşayan bir kullanıcı, kendi rızası olmadan dahil olduğu bu araştırma sonunda kendine zarar verdiyse bile Facebook ne bunu takip etmek ne de bu konuda önlem almak için sorumluluk aldı. Facebook’un son aylarda karşılaştığı etik sorunlar (bkz: Cambridge Analytica skandalı), Google’ın Duplex ile geliştirmiş olduğu manipülatif teknoloji ve Compas gibi ceza hukukunda kullanılan ve risk analizi yapan sistemlerdeki etik sorunlar göz önüne alınınca çok masum kalsa da bu örnek ne tarz problemlerle karşılaştığımızı anlatmak için hâlâ yararlı.

Yapay zekâ etiği hayatımızın kalitesi ve güvenliği için bu kadar önemliyse, bu alanda dünyada ne tür çalışmalar yapılmakta? Büyük şirketler hızla yapay zekâ etiğine eğilen platformlar oluşturma çabasındalar. Partnership on AI, DeepMind ve OpenAI, şirketler tarafından kurulan ve yapay zekanın sosyal yönlerini araştıran platformlar. Şirketlerin yanı sıra, akademide de bu alanda çalışmalar var. Örneğin, Asilomar AI Prensipleri endüstrinin akademi ile işbirliği yaptığı bir çalışma ile ortaya atıldı. Stanford’da yürütülen AI100 ise yüzyıl sürecek olan akademik bir çalışmanın ilk raporunu 2016’da sundu. Bu çalışmaların paralelinde, siyasi birimler de yapay zekâ kullanan teknolojilerin kontrolü için yasal düzenlemeler yapma yolunda ilerliyorlar. Avrupa Parlamentosu robot hukuku üzerine çalışmalar yayınlarken, Avrupa Birliği verilerin korunması için hazırladığı yasayı bu ay yürürlüğe koyuyor. Bütün bunlar aslında hâlâ emekleme döneminde olan çalışmalar. Ancak yasal düzenlemelere olan ihtiyaç, yapay zekanın etik tartışmasının daha fazla bekleyemeyeceğini gösteriyor. Eğer bu konuda çalışmalara şimdi başlamazsak, yasal düzenlemeler iyi ya da kötü yerini bulduktan sonra bunları değiştirmek için çok uğraşmamız gerekecek. Üzerinde yeterince çalışma fırsatı bulunmadan yürürlüğe konulan yasaları, hem etik hem de teknolojik açıdan yararlı düzenlemeler haline getirmek çok daha fazla uğraş ve kaynak gerektirir.

Türkiye’de yapay zekâ etiği konusunda henüz çok az çalışma var. Üniversitelerin mühendislik ya da felsefe bölümlerinde yapay zekâ etiği eğitimin bir parçası değil. Bu açığı biraz olsun kapatmak için, odak noktası yapay zekâ etiği olan ve hem yurtdışında hem de Türkiye’de faaliyetlerini sürdüren AI Ethics Lab’i kurduk. Disiplinler arası bir alan olan yapay zekâ etiği felsefeciler, mühendisler, hukukçular ve ekonomistler başta olmak üzere birçok alandan kişinin birlikte çalışmasını gerektiriyor. AI Ethics Lab’de yapay zeka etiği alanında bilgilenmek ve bu alanda çalışmalara zemin hazırlamak için atölyeler, çalışma grupları ve seminerler yapıyoruz. Lab’in amacı yapay zekâ kullanan teknolojiler gelişirken işin etik kısmını en baştan bu araştırma ve geliştirme sürecine dahil etmek ve bu konuda hem araştırmacılara hem de endüstriye destek ve danışmanlık sağlamak. Bunun için Türkiye’de Deep Learning Türkiye, Türkiye Yapay Zeka İnisiyatifi, ve Türkiye Teknoloji Geliştirme Vakfı ile iletişimde olan AI Ethics Lab tam da bu disiplinler arası çalışmayı hedefleyerek, yapay zekânın farklı yönlerini çalışan kişiler ve grupları bir araya getirmeyi amaçlıyor.

AI Ethics Lab’deki çalışmalarımızı websitesinden (http://aiethicslab.com) ve Twitter’dan (@aiethicslab) takip edebilir, çalışmalarımıza katılmak veya danışmak için bize contact@aiethicslab.com adresinden ulaşabilirsiniz.