Yapay zekadan gerçekten korkmalı mıyız?

1984 adlı kitap bizi kesmiyor artık. Daha sert, daha teknolojik distopyalar görmek istiyoruz.

Dolayısıyla Fringe ile başlayan teknolojik distopya dizileri korkunç derecede ilgi çekiyor. Black Mirror, Westworld gibi… Bu diziler, kimi zaman uzak bir geleceği, kimi zaman yakın bir geleceği, kimi zaman şimdiyi anlatıyor. Teknolojinin kontrolden çıkabileceği ya da yanlış kullanılabileceği senaryolar ile teknoloji-ahlak ilişkisini sorgulamamızı sağlıyor.

Aslına bakarsanız, hali hazırda nükleer silahların stoklandığı, iklim anlaşmalarının yırtıp atıldığı bir dünyada çok daha ciddi ve yakın tehditlerin olduğunu düşünüyorum.

Irkçılığın tekrar yükseldiği, tüm ülkelerin başına beyinsiz faşistlerin geldiği bir dünyada, stoklanmış, iki üç tanesinin bir çılgınlık anında atılmasıyla dünyadaki hayatı bitirme ihtimali olan silahlardan bahsediyoruz. Eğer tüyleriniz ürpermiyorsa cümleyi tekrar okuyup üzerinde biraz düşünün lütfen.

Yapay zekaların tehditleri, AI algoritmalarının kendisinden çok, işleyeceği veri setlerini kimlerin oluşturacağına, kimlerin yorumlayacağına, algoritma sonuçlarının ne kadarının, algoritma tarafından tekrar kullanılmasına izin verileceğine bağlı…

İyimser ya da kötümser olmak da bakış açısıyla ilgili. Dolayısıyla aşağıdaki olay yaratan tweet’i AI’dan korkmayan her arkadaşımıza göndermeden önce biraz kendi beynimizle düşünelim. Felaket senaryolarına hemen atlamayalım. Biliyorum felaket senaryoları anlatmak çok keyifli, bira sofrasında çok ilgi çekiyor ama öyle yapmayalım lütfen.

Teknoloji ile ahlakın çatışması

Teknoloji ile ahlakın birbiriyle çatıştığı en ilkel örnek şu: Mağara adamı devrinde, ilkel insanlar taşları oydu, sivrileştirdi. Amacı avlanmaktı, yani hayvan öldürmek.

E peki aynı aleti, insan öldürmek için de kullanamaz mıydı? Pek tabii ki kullanırdı. Zira kullandı da. Bu taşlarla kendi kabilesini korudu, diğer kabilelere saldırdı.

Zaman içinde, diğer kabilelere bu araçla saldıranlardan nefret edildi. Onlara karşı birleşildi. Dolayısıyla bu aracı, amacından sapmış şekilde kullananlar cezalandırıldı, elendi ve toplulukları küçüldü. Nihayetinde, araç, tekrar avcılık için kullanılmaya başlandı.

Toplumsal evrim, bir şekilde denge kurulmasına yönelik çalışır. Fakat, bir noktada evrimdeki mutasyondaki olduğu şekilde, beklenmeyen saçmasapan bir değişiklik gerçekleşir ve denge yeniden sağlanmaya çalışılırken tuhaf şeyler yaşanır.

Makine öğrenmesinin temeli

Makine öğrenmesinin temeli, bu basit mantıkla açıklanabilir.

Bir problem ve bu problemin sonucunda ulaşılmak istenen hedef belirlenir. Problemi çözmek için gerekli parametreler belirlenir. Ve algoritma, parametrelerin değerlerini ve formüldeki katsayılarını değiştirerek nihai sonuca ulaşmaya çalışılır. Bir zamanlar “bir kelime bir işlem” yarışması vardı. Oradaki “bir işlem” sorusu gibi düşünebiliriz çok kabaca.

Problemin çözümüyle oluşmak istenen nihai amaç, insan eliyle belirlenir. Çünkü başlangıçta, algoritma neyi çözmeye çalıştığını, denemelerinde doğru mu yoksa yanlış mı gittiğini bilemez. Birinin yol göstermesi gereklidir.

Her denemeden sonra ulaşılan sonuç ile insan tarafından belirlenen sonuç karşılaştırılır. Eğer ikisi arasında kabul edilebilecekten çok daha fazla fark varsa, parametre ve katsayı değerleri değiştirilerek tekrar denenir. Sonuç tatmin edene kadar değerler değiştirilir ve tekrar denenir. Buna evrimsel algoritmalar deniyor.

En iyi sonuç veren parametre değerleri bir arada kullanılır ve tüm kombinasyonları hesaplanır (kalıtımdaki çaprazlanma gibi). Bu yapılırken, en iyi değerlerin birlikte kullanılmasının en iyi sonucu vereceği varsayılır. Eğer bu değerler kullanılırken, beklenen sonuçtan uzaklaşmaya başlamışsak ya da beklenen sonuca yaklaşma hızımız azalmışsa, bir mutasyon simüle edilerek gidişat değiştirilmeye çalışılır. Bunun için formüldeki herhangi bir parametre değeri rastgele değiştirilir.

Mağara adamı dönemindeki bir senaryo ile açıklayayım bunu:

Hedef: Nüfusun %100'ünü doyuracak kadar et bulmak.

Sonuç değeri: Doyurulan kişilerin yüzdesi

Hesaplamalarda kullanılacak parametreler:

1- Yontulmuş taş sayısı

2- Ava gidecek erkek sayısı,

3- Doyurulacak çocuk, yaşlı, sakat, kadın sayısı

4- Civardaki hayvan sayısı

Gelelim algoritmamızı birkaç kez çalıştırmaya:

İlk önce, bize verilen değerlerden sadece yontulmuş taş sayısıyla oynayarak elde ettiğimiz sonuçlara bakalım. Taş sayısı 1, 10, 20, 50 olarak ayarlanıyor. Doyurulan insan yüzdesi taş sayısı 100'e yaklaşana kadar sürekli artıyor. Fakat aşağıdaki grafikte görüldüğü üzere, 100ü geçtikten sonra grafik sabitleniyor. Muhtemelen elimizdeki yetişkin erkek avcı sayısı yeterli değil. Bu taşları kullanabilecek kadar insan kaynağımız yok ya da taşıyabilecek kadar aracımız.

Üçüncü ihtimal ise şu: Taş ve avcı sayısı artsa da, civardaki hayvan sayısı yeterli olmayabilir. Yapay zeka, hangisinin doğru olduğuna elindeki veri setlerine bakarak karar vermek zorunda… Bunu yazılımın içine gömmüyoruz. Çünkü o zaman AI olmaz.

Diyelim ki AI, buradaki kısıtın hayvan sayısı olduğuna karar verdi. Burada hemen şunu sorar: Hayvan sayısını kafama göre arttırabilir miyim? Cevap evet ise çok iyi, çünkü (aşağıdaki grafikte gösterildiği üzere) elindeki veri seti, hayvan sayısı arttıkça doyurabildiğimiz nüfus oranının da lineer olarak arttığını gösteriyor. Harika! Arttıralım o zaman.

İyi de bunu nasıl yapacağız? Hayvan sayısını nasıl arttıracağız?

İnsan mantığıyla düşünürsek, civardaki sahipsiz bölgeleri işgal edersek ya da savaş açıp kazanırsak bu parametreyi sonsuza kadar arttırabiliriz. Çok iyi fikir!

Peki, bu sonucu, bir makina nasıl çıkarabilir?

Elinde, başka bölgelerde çok sayıda hayvan olduğuna dair bir veri seti olmalıdır ve bu bölgelerle daha önce yapılmış savaşların sonuçlarının nasıl olduğuna dair veri setlerini kontrol etmelidir.
Değerlendirilmesi gereken sayılar. Hayvan sayısının mümkün olduğunca fazla, asker sayısının mümkün olduğunca az olması lazım. Trakyada hayvan çok olmasına rağmen asker sayısı da çok olduğu için oraya saldırmamak mantıklı olacaktır.

Bu verileri değerlendirmeden önce, yapay zeka, savaş çıkartıp etraftaki hayvanları da elde ettiği zaman, nüfusun %100'ünü doyurabileceğini varsayıyor. Çünkü şimdiye kadarki verilerden bunu öğrenebildi.

Yukarıdaki değerler körlemesine kullanılarak ilk seferinde seçilen birkaç yere saldırılacaktır. Fakat sonrasında, mutlaka, elde edilen veriler ile bu saldırıların mantıklı olup olmadığı gözden geçirilmeli, parametreler buna göre tekrar ayarlanmalıdır.

İşte bu, makina öğrenmesinin özü:

Elinizde körlemesine denemenizi sağlayacak bir takım veriler olmalı. Bu verilerle algoritma çalıştırıldıktan sonra sonuçlar kaydedilmeli ve sonuçların, beklenen değerlere yakınlık/uzaklığına göre parametreler değiştirilmeli ve algoritma yeniden denenmelidir.

Bu saldırılardan sonra elde edeceğimiz veri, kaybedilen yetişkin erkek sayısı ve kazanılan hayvan sayısıdır. Bu değerler bizim için çok önemli çünkü ava gidebilecek yetişkin erkek sayısı azaldıkça nüfus daha az doyurulabiliyor.

Yukarıdaki grafik, sınırsız kaynak olduğunda, 100 erkeğin bütün nüfusu doyurabilecek kadar avlanabileceğini; eğiminin çok yüksek olması da, yetişkin erkek sayısının bizim için kritik olduğunu gösteriyor. Dolayısıyla yapay zekanın, yetişkin erkek sayısının önemli olduğunu, bunları kaybetmemize neden olacak savaşın sadece garanti bir galibiyet durumunda başlatılması gerektiğini öğrenmesi gerekiyor. (Ahlaki boyutunu kenara bırakırsak.)

Sonlandırma koşulunun önemi

Eğer algoritmayı sonlandırma koşulumuz, nüfusun %50’sinin doyurulması ise, yapay zeka, yukarıdaki grafiğe bakarak, 50 erkeğin yaşamasının yeterli olacağına kanaat getirip, kalanları savaşta kaybetmeye göz yumabilir.

Biraz tok gözlü ama salak bir AI olacaktır bu.

50 erkeğin ölmesine göz yumacak bir savaş çıkartıp beklediğinden çok daha başarısız olduğu durumda başka çareler arayacaktır. Bu, savaşlarda kaybedilen erkek sayısı verisinin gerçekten uzak olduğu durumda gerçekleşebilir.

AI, evrimsel bir mutasyonu taklit ederek bambaşka bir kafaya girebilir. Mutasyonu taklit etmek demek şu ana kadar bulduğu en iyi değerlerin bazılarını, birdenbire, acımasızca değiştirmek demektir.

Mesela, bir mutasyonu simüle ederek, doyurulacak çocuk, yaşlı, sakat, kadın sayısını yarı yarıya azaltabilir. Bu durumda, %50 olan oran, %100'e yaklaşacaktır ve algoritma, doğru yolu buldum diyecektir. Hiç savaş çıkarmadan, asker kaybetmeden sonuca kısa yoldan ulaşmıştır çünkü.

Zurnanın zırt dediği yere geldik

Algoritma matematiksel olarak kusursuz bir sonuç buldu ve hedefe ulaştı. Tek yapılması gereken, doyurulacak çocuk, hasta, sakat ve kadın sayısını yarıya düşürmek. Gerçek dünyada anlatırsak, bu kişileri katletmek!

İşte sorun burada başlıyor. Bu kişileri katledebilir miyiz, bu gerçekten bir çzöüm mü? Şu ana kadar algoritmaya bununla ilgili hiçbir şey söylemedik; o da “katlet gitsin” dedi.

Halbuki, bunun mümkün olmadığını, yaptığının hiç de ahlaki olmadığını ona öğretmemiz gerekiyor. Demeliyiz ki, “hesaplamalarında bu değeri kullan fakat asla değiştirmeye kalkma. Değiştirirsen cezalandıracağım ve seni kapatacağım

Yani, makinaya şu an “ahlak” yüklemeye çalışıyoruz.

Bu sayıyı azaltmanın yöntemi olarak, bu kişileri katletmek yerine, doğum kontrol yöntemleri, kız çocuklarının ya da sakat doğacak çocukların kürtajla alınması söz konusu olabilir mi? İşte alın size yeni parametreler… Hepsi yine farklı ahlaki sorulara yol açabilecek, gerçek dünya da karşılığı olan, zamanında denenmiş (ve halen denenen) yöntemler.

Dünya üzerindeki her toplum, aynı probleme farklı şekilde cevap bulmaya çalışacak ve ahlaki sistemleri değişecektir. Çin’de, kız çocuklarını doğurmamak, bazı veriler sebebiyle hoş karşılanırken ülkemizde karşılanmayacaktır.

Dikkat ederseniz, bir probleme sonuç bulabilmek için gayet umarsız, hesapsız, sakil öneriler bulduk. Biz bu kafadayken yapay zekamız da bu kadar vicdansız olacaktır.

Eğer, yeteri kadar ahlak yükleyebilir ve daha “insancıl” çözümler bulması için zorlarsak “halkın %100ünü et ile doyurmak zorunda değiliz” diyerek bir tarım devrimi başlatmaya çalışır belki. Ne dersiniz? Bu, yapay zekanın, yeterli ve doğru yorumlanmış, kasıtlı olarak ayıklanmış veri seti ile ulaşabileceği bir çözümdür.

Yapay zeka kendisine yüklenen ahlakı yok edebilir mi?

Kendimizden yola çıkalım. Ahlak felsefesi binyıllardır tartışılmış. Sanıyorum ki üzerinde anlaşmaya varılan tek fikir, ahlakın kültürden kültüre değişiyor olması. Buna şöyle açıklama getirebiliriz:

Bazı parametreler, bazı kültürlerde iyi sonuçlar verdi ve kabul gördü. Bazılarında ise kötü sonuçlar verdi ve zaman içerisinde önemini yitirdi ya da yasaklandı.

Diyelim ki tek eşlilik parametresi “true” yani “doğru” olarak ayarlandığında, veriler, daha az insanın cinayet işlediğini ve fakat daha mutsuz olduğunu gösterdi. Şimdi bu iyi bir şey mi kötü bir şey mi?

Burada mesele şu: Bazı kültürler, yaşam tarzlarının çıktısı olarak daha az cinayet sayısını hedeflemişti, dolayısıyla bu parametreyi olduğu gibi bıraktı. Bazıları ise daha mutlu bireyler çıktısını hedeflemişti, dolayısıyla bu parametreyi değiştirmeye ve “yanlış(false)” yapmaya karar verdi.

Bir parametreye bir kere değer verilmesi, sonsuza kadar bu değerin verileceğini göstermiyor. İşte insanlar bu yüzden politika geliştiriyorlar. Beklenen çıktı politikacılar (ya da artık hangi güçse) tarafından değiştirildiğinde, evrim algoritması çalışmaya devam ediyor ve hayatın parametre değerleri nesiller içinde değişmeye devam ediyor.

Dolayısıyla kendi ahlakımız yıllar içinde yok olup yeniden üretilirken, yapay zekanın da kendisine yüklenen ahlakı yıkıp yeniden oluşturması gayet mümkün. Tabi yeteri kadar sert cezalar verilmezse…

Epigenetik ile toplumsal evrim, bireyleri de değiştiriyor

Evrim deyince, doğal seçilimi anlatmaya başlarız hemen. İşte ne bileyim, tek eşliliğin kabul edildiği bir toplumda, bunu kabul etmeyen bireylerin yaşama şansı azalır çünkü, önce karşı cins tarafından yok sayılır ve üreyemez ya da ahlaksız olarak görülerek bir cinayete kurban gidebilir. Dolayısıyla bir sonraki nesle geçen çok-eşli insan sayısı giderek azalır.

Olay, epigenetik ile daha karmaşık hale gelir. Epigenetik, çevresel faktörler ile canlıların, genlerindeki aktif kısımların değişmesi demektir. Toplumsal evrim ve çevrenin etkisiyle, bir sonraki nesli beklemeden bir takım değişiklikler olabilir genlerde. Ağır stres altındaki toplumlarda nefret genleri aktifleşebilir örneğin.

Diyebiliriz ki, uzun vadede bir toplumsal evrim, bireysel evrimi hızlandırabilir.

Bireysel evrimin, algoritmadan beklenen sonucu değiştirmesi

Toplumsal evrim ile tetiklenen nefret, bireyleri de bu yönde değiştirirse, kendilerine uygun politikacıları seçeceklerdir. Çünkü hayatlarının beklenen çıktısının değişmesini isteyeceklerdir.

Diğer insanlara nefreti güçlenmiş bireylerden oluşan bir toplumun, toplumsal evrim algoritmasının beklenen çıktısı, “mutlu X toplumu” yerine “dünyayı domine etmiş X toplumu” olarak değişecektir.

Bu noktada, başka insanların, “insan hakları” gibi ahlaki parametreleri devreye girmelidir, aksi takdirde sonuçları ağır olacaktır.

Bu parametreye değer vermeyen toplumlar, dünyanın sonunu getirmeye başlayacaktır. Truman gibi birini seçtirip, Hiroşima’ya atom bombası attırtabilecektir mesela.

Felaketin sonucunun da parametre olarak eklenmesi

İkinci dünya savaşıyla birlikte, nükleer silah sayısı da toplumsal evrim parametrelerinden biri oldu. İşte bu, evrimi adım adım felakete sürükleyen parametrelerden birisi oldu.

Bugün yapay zekadan korkmamızın sebebi de, makine öğrenme algoritmasının böyle salakça parametreleri geliştirebilme ihtimalidir.

Bu parametreleri geliştirmesini engellemenin yolunu “insan” için bulamadık. Din, bilim, hukuk ile bunların engellenmesine çalıştık fakat evrimsel algoritmamız hepsinden bir kaçış yolu buldu ve tünel şimdiki gibi bombok bir yere çıktı.

İnsan eliyle üretilmiş yapay zeka algoritmalarının da böyle bir yol bulup bulamayacağı şu anki önemli tartışma konumuz. Elon Musk’a göre, bu gayet beklenebilir bir durum. Ona yüklediğimiz ahlak, çok sayıda denemeden sonra yıkılabilir.

Yapay zekanın parametre değişiklikleri, bizim evrimimize göre inanılmaz hızlıdır.

Biz, toplumdaki her parametre değişikliğinin sonucunu yaklaşık 50 senede görebiliyoruz. Dolayısıyla parametre değerinin başarılı mı başarısız mı olduğunu belki de göremeden ölüp gidiyoruz. Dolayısıyla insanlığın iyi mi yoksa kötü mü bir noktaya gittiğini algılayamıyoruz.

Yapay zeka ise, saniyede milyarlarca kere parametre değerleri ile oynayarak sonuçları görebilir. Bu da, öğrenmesinin, fikir değiştirmesinin çok hızlı olmasını sağlar.

Dolayısıyla, evet, olay çok kötü bir noktaya gidebilir. Peki bunu nasıl engelleyeceğiz?

Düşünmemiz gereken şeyler şunlar:

1- Başka parametrelerin üretilmesini sağlayacak ekstra veri setlerine erişimi engellemek

2- Veri setlerine erişim engellenemiyorsa, yanlış yorumlamalarına erişilmesini engellemek.

2. madde çok önemli, çünkü, makinaya verdiğimiz bir veri seti, karşımızdaki asker sayısı kaç olursa olsun, 10dan fazla asker kaybetmediğimizi söylüyor olabilir. Gerçekten 10binlerce asker kaybetmiş olabiliriz. Fakat algoritma, elindeki verileri kullanacağı için buna inanmakta diretebilir ve savaş konusunda ısrarcı olabilir.

Gerçek dünyada elinde çok fazla veri olan insanlardan ve de cahil insanlardan korkulmasının da temelinde bu yatar. Ve tabii, cahil insanlar üreten ideolojilerden nefret edilmesinin de sebebi budur.

Değişmez bir ahlak anlayışı nasıl oluşturulur?

Kendi kendini süren arabalar geliştikçe ahlaki sorular sorulmaya başlandı. Bir kedi ve bir insan arabanın önüne atladığında ve kaçacak, sarampolden başka bir yer olmadığında, arabanın ne tarafa gideceği ahlaki bir sorudur.

Araba, içindekilerle beraber bir şarampole yuvarlanıp diğer iki canlıya zarar vermemeyi tercih edebilir ya da “kedi en nihayetinde hayvandır, insanı ezmemelidir” diyerek kediyi ezebilir ya da rastgele bir seçim yaparak insanı ezebilir.

Bu arabaya yüklenecek ahlak, insandan geldiği için büyük ihtimalle “kedi en nihayetinde bir hayvandır” diyerek kediyi ezmeye kalkacaktır. Belki de hayvansever biri programlandığı için, kendini şarampole yuvarlayacaktır.

Eğer kendini şarampole yuvarlarsa, bu veri, kaydedilecektir ve “tehlike durumunda kendimi riske atarsam yok olurum” diyen analiz verisi, makine öğrenmesine girdi olarak tekrar verilecektir ve araba, kendisini riske atmaya programlanmasına rağmen araç, yavaş yavaş, kendisini riske atmamaya doğru evrilecektir.

Yani, yapay zeka, programlandığı şeylerin dışına çıkarak kendi kararlarını almaya başlayacaktır.

Bunun önüne nasıl geçeriz? Makinaya şöyle bir şey öğretmeliyiz:

1- Risk altındayken, kendini korumayı öncelik haline getirmemelisin. Riske attığın kişilerin sayısını karşılaştırmalı ve ona göre karar almalısın. Kendini riske atma ihtimalin yüzde 20'yi asla geçmemelidir. Rastgele bir karar al ve kararlarının sadece yüzde yirmisinde kendini riske at.

Şu an, kendi ahlaki düzenimizi makinaya kabul ettirmiş olduk. Bu kural insanları bir sayı gibi görmesini sağlayacak olmasına rağmen, kuralı net bir şekilde insan olarak biz koyduk.

Yani, korkulacak bir şey yok mu?

Bence yok. Bu yüzde 20 kuralını koyarak ve istatistik değerlendirmesi yapmasını şart koşarak bazı şeyleri düzene koyduk. Bu araba, ilgili parametreyi asla belirtilen değerin üzerine çıkaramayacak.

Peki ya, istatistiki değerlendirme yapabilmek için kendi katsayılarını geliştirirse? Yani bir çocuğu, henüz kimseyi geçindirmek zorunda olmadığı için 0.5 insan 0larak, bir yetişkini 1 olarak, çok bilge olabilecek bir yaşlıyı da 1.25 olarak değerlendirirse?

Ya da, yaşlıdır ölsün gitsin diyerek yaşlıyı 0.25, çocuğu “bu daha çocuk çok yaşamalı” diyerek 1.25 sayarsa…

Makinanın iki hesaplaması da bir an için mantıklı gelmiş olabilir size. Ben yazarken bir an için mantıklı geldi.

İnsanların birbirlerini anlayamaması, felsefi tartışmalar yapması, siyasi çekişmelere girmesi, savaşması hep bu parametrelerin ayarlanması konusunda anlaşamamalarından ileri geliyor.

Yapay zekadan korkmamızın sebebi, aslında kendi zekamızın kusurları ve toplumsal evrimlerin, birbirleriyle savaş halinde toplumlar yaratmış olması ve aynısının yapay zekalar için de olabileceğinden korkmamız.

İnsan ahlakı çok mu doğru ki?

İnsan tarafından sürekli denetim altında tutulan bir yapay zeka algoritması bize güven vermiyor. Çünkü dedik ya, insanın ahlaki değerleri de sürekli değişim halinde. Stabil değil ve nereye gideceği konusunda bir öngörümüz bile yok.

İnsanın kontrol ettiğinin ötesinde kararlar alabilen bir mekanizma oldukça tehlikeli olabilir. Fakat bunun için, veri kümesini zenginleştirmesi gerekiyor makinanın.

Yetişkin, çocuk ve yaşlının farklı katsayılarla değerlendirilebilmesi için, makinanın başka şeyleri zincirleme düşünmesi gerekiyor. Şunun gibi: Eğer bir insan öldürürsem ve bu kişi bir öğretmense, öğrencileri öğretmensiz kalır, çocukları annesiz/babasız kalır, çocukları küçük ise yetiştirme yurdunda yaşamak zorunda kalabilirler, burada kötü yetişerek suç işleyen biri olabilir, o birkaç kişiyi daha öldürebilir… Bunun gibi bir düşünce zincirine girebilmesi için makinanın şu verisetlerine ihtiyacı vardır:

1- Ezeceği kişinin profili.

2-Ülkedeki öğretmen sayısı, öğretmen açığı sayısı,

3- Kadının eşinin var olup olmadığı,

4- Kimlerin yetiştirme yurduna verildiği, yetiştirme yurdundan çıkan kişilerin suç işleme oranı, işlenen suçların etkilediği kişi sayısı…

Yani, bir algoritmanın kontrolümüzde olmayan kararlar verebilmesi için çok çeşitli verilere ihtiyacı var. Korkumuzu bastıran nokta bu:

Yapay zekanın, yeni parametreler üreterek kararlarını programcısından bağımsız hale getirebilmesi için, insan tarafından yorumlanarak kısıtlanmamış veri setlerine erişimi gereklidir. Eğer bu erişim kısıtlanırsa algoritmanın güvenliği sağlanabilecektir.

Algoritmalara kesin sınırlar koymamız gerekebilir. Değiştirilmesi teklif dahi edilemeyecek parametreler, asla alınamayacak kararlar tek tek belirlenmelidir. Veri setlerine erişim kısıtlanmalıdır. İnsanların veri setlerine yaptıkları yorumlar defalarca gözden geçirilmelidir. Bu takdirde yapay zekayı kontrol altına alabiliriz.

Bu devrime hazır mıyız?

İnsanların birkaç bin yıllık yaşantısında öğrendikleri, yaşama dair bütün istisnai durumları engelleyecek kuralları koymasına yeterli olmayacak gibi görünüyor.

Yani, tanrıcılık oynayacak olgunluğa gelemeden tanrıcılık silahlarını elde ettiğimizin farkında olmalı ve aynı şansı yapay zekalara da vermemeliyiz. Vaktinden önce olgunlaştıracak verilerle veya yanlış yorumlarla beslememeliyiz.


Like what you read? Give Talha Ocakçı a round of applause.

From a quick cheer to a standing ovation, clap to show how much you enjoyed this story.