Beyefendi, yine Primat zekamızla düşünüyoruz hatamız yazıda belirtildiği gibi en çok bu.
Buğra Doğan
1

Güzel, en azından keyifli konular etrafında tartışıyoruz. Mutlu oluyorum.

Yapay zekanın evrimi ile canlıların evrimi benzeşiyor. Zaten yapay zeka algoritmaları, evrimsel algoritmaları fazlaca kullanıyor. Yani, bir işlemden istenilen sonuç alınmadığı zaman bir mutasyon simüle ediliyor, değerlerden birkaçı değiştiriliyor. Yeni değerlerle aynı işlem tekrar yapılıyor, işlemin sonucunda, insan eliyle verilmiş istenilen değere yaklaşılmışsa bu değerler ince ayara tabi tutuluyor.

Buradaki varsayımımız, istenilen sonucun şu an için “insan eli ile verilmiş olması”.

Geçenlerde yapılan OpenAI — insan Dota maçlarında, OpenAI, oyunun ne olduğunu insan eliyle öğreniyordu. Oyunun kuralı öğretiliyordu ve yüksek puanın daha iyi olduğu insan eliyle söyleniyordu.

Bizim korkumuz, yapay zekanın, istenilen sonucu da insandan beklemeyip kendisinin karar verebileceği ihtimali.

İnsana uyarlarsak, ahlaki değerlerini bir dış güçten almayıp, kendi kendine, ahlakın ne olacağına karar verebilmesi demek. Yani, insan, evrim ilerledikçe “günde üç insan öldürmeyi” ahlaki bir kural olarak benimseyebilir mi benimseyemez mi sorusu…

Burada yine şunu varsayıyoruz, vicdan, bunu engelliyor. Vicdan yerine, genler diyebiliriz, yıllardan beri gelen din mitolojileri engelliyor diyebiliriz. Ne olursa olsun, böyle bir ahlaki çökmeyi engelleyen bir gücün olduğunu ve istesek de ezemediğimizi görüyoruz.

Yapay zekada da benzer bir koruma mekanizması yazabilmek gayet mümkündür. Dışarıdan asla değiştirilemeyecek birkaç değer, böyle bir evrimin (yapay zeka ilerlemesinin) önünü gayet de kesebilir.

Burada korkulan şu: ya yazılımcılar, böyle bir koruma mekanizması koymak istemezlerse, ya da kötü niyetli olarak koymazlarsa…

İşte o noktada korkulanlar olabilir. Ama bunun dediğiniz gibi, primat beyni ile düşünmekle pek bir ilgisi yok.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.