Yapay Zekayı Etik Anlamda Nasıl Kullanıyoruz?

Yapay Zeka (AI)’yı etik olarak uyguladığınızdan emin olmanın ip uçları…

Hüseyin Güzel
Technical Library
6 min readAug 19, 2023

--

How Do We Use Artificial Intelligence Ethically?” by Bernard Marr

Yapay Zeka (AI) konusunda son derece tutkuluyum ve şirketlerin ve kurumların dünya çapında harika şeyler yapmak için Yapay Zeka (AI)’yı kullanmalarına yardımcı olduğumu söylemekten de açıkçası gurur duyuyorum.

Ancak dünyayı daha iyi bir yer haline getirebilmek için yapay zekayı etik anlamda sorumluluk alarak kullandığımızdan da emin olmalıyız, diye düşünüyorum. Bu yazıda, Yapay Zeka (AI)’yı kurumunuzda yada şirketinizde etik olarak uyguladığınızdan emin olmanız için size bazı ipuçları vermek istiyorum.

1| Yapay Zeka (AI)’ya Eğitim ve Farkındalık ile başlayın

Yapay Zeka (AI)’nın neler yapabileceği ve zorlukları hakkında insanlarla (harici ve dahili olarak) net bir şekilde iletişim kurun. Yapay zekayı yanlış nedenlerle kullanmak mümkündür, bu nedenle kurumların ve şirketlerin yapay zekayı kullanmanın doğru amaçlarını ve önceden tanımlanmış etik sınırlar içinde nasıl kalacaklarını bulması gerekir. Herkesin yapay zekanın ne olduğunu, nasıl kullanılabileceğini ve etik zorluklarının neler olabileceğini anlaması gerekiyor.

2| Şeffaf Olun

Şeffaflık, çalıştığım her organizasyonda vurguladığım en önemli şeylerden biridir. Her kuruluşun, yapay zekayı nasıl kullandığı hususunda (hem dahili hem de harici) açık ve dürüst olması gerekiyor.

Müşterilerimden biri olan Royal Bank of Scotland, müşterilerine sağladıkları bazı hizmetleri geliştirmek için yapay zekayı kullanmak istedi. Girişimlerine başladıklarında, hangi verileri topladıkları, bu verilerin nasıl kullanıldığı ve müşterilerin bundan ne gibi faydalar elde ettiği konusunda müşterilerine karşı şeffaf ve açık olmaya çalıştı (ve olmaya devam ediyor).

Son Cambridge Analytica skandalına baktığımızda, sorunun büyük bir kısmının Facebook’un yapay zekayı nasıl kullandığı ve müşterilerinin verilerini nasıl toplayıp kullandığı hususunda yeterince şeffaf olmadığını düşünüyorum. Net bir Yapay Zeka (AI) iletişim politikasının olması, birçok sorunu daha ortaya çıkmadan çözebilirdi açıkçası.

Müşterilerin birlikte çalıştıkları şirketlere güvenmeleri gerekir ve bu da yapay zekanın şirketin genel stratejisine nasıl uyduğu ve müşterileri nasıl etkilediği konusunda tam bir şeffaflığa sahip olmasını gerektiriyor.

3| Verilerinizin Önyargılı Olmadığından Emin Olun

Kurumların ve şirketlerin mümkün olduğunca kullandıkları verilerin önyargılı olmadığından emin olması gerekir.

Örneğin Google, ImageNet adında büyük bir insan yüzü görüntüleri veritabanı oluşturdu. Veri kümeleri beyaz olmayan yüzlerden çok daha fazla beyaz yüz içeriyordu, bu yüzden yapay zekaları bu verileri kullanmak üzere eğittiklerinde beyaz yüzlerde beyaz olmayan yüzlerden daha iyi çalıştılar.

Daha iyi veri kümeleri ve daha iyi algoritmalar oluşturmak, yalnızca yapay zekayı etik olarak kullanmak için bir fırsat değil, aynı zamanda dünyadaki bazı ırk ve cinsiyet önyargılarını daha büyük ölçekte ele almaya çalışmanın da bir başka yoludur.

4| Açıklanabilir Hale Getirin

Yapay zeka algoritmalarınız açıklanabilir mi?

Derin öğrenme gibi modern yapay zeka araçlarını kullandığımızda, insanların yapay zeka algoritmalarında karar verme süreçlerini gerçekten netleştiremedikleri “kara kutuları” olabilir. Şirketler onları verilerle besler, yapay zekalar bu verilerden öğrenir ve sonra bir karar verir.

Ancak, kimin sağlık hizmeti alması gerektiğini ve kimin almayacağını yada kimin şartlı tahliyeye edilmesine izin verilmesi gerektiğini ve kimin edilmemesi gerektiğini belirlemek için derin öğrenme algoritmalarını kullanmanız sonucunda kişilerin bireysel yaşamı açısından büyük etkileri olan çok büyük kararlar aldığınız anlamına gelir.

Yapay zekanın nasıl karar verdiğini tam olarak anlaması ve bu sistemleri açıklayabilmesi, şirketler ve kurumlar için giderek daha önemli hale geliyor. Son zamanlarda açıklanabilir yapay zekaların geliştirilmesine yönelik birçok çalışma yapıldı. Artık en karmaşık derin öğrenme sistemlerinde bile daha iyi açıklama yapabilmenin yollarına sahibiz, bu nedenle algoritmalarınızda sürekli bir karışıklık veya gizem havası estirmek açısından hiçbir mazeretimiz yok artık.

5| Kapsayıcı Hale Getirin

Şu anda yapay zeka üzerinde çalışan çok fazla erkek, ve özellikle beyaz insan var. Geleceğin yapay zeka sistemlerini inşa eden insanların dünyamız kadar çeşitli olduğundan emin olmamız gerekiyor. Oluşturduğunuz yapay zekanın bir bütün olarak toplumumuzu gerçekten temsil ettiğinden emin olmak için daha fazla kadın ve farklı ırklardan insanların bu sürece dahil olması gerekiyo; ki bu noktada önemli ilerlemeler de yok değil, ancak bunun çok daha ileri boyutlara taşınması gerekiyor.

6| Kurallara ve Yasalara Uyun

Tabii ki, yapay zeka kullanımı söz konusu olduğunda, bir takım düzenlemelere, yönetmeliklere ve yasalara bağlı kalmamız gerekiyor.

Avrupa’da ve ABD’nin bazı bölgelerinde yapay zeka yasalarının ve düzenlemelerinin arttığını görüyoruz. Bununla birlikte, organizasyonların kendi kendini düzenlemesine dayanan ve hala birçok düzenlemeye tabi olmayan kısımları var. Google ve Microsoft gibi şirketler, yapay zekayı iyilik için kullanmaya odaklanıyor ve hatta Google’ın kendi tanımladığı yapay zeka ilkeleri var.

Kurumlar ve şirketlerle çalıştığımda, genellikle o şirket için Yapay Zeka (AI) etik kaygıları için adeta bir Kutup Yıldızı görevi görecek bir Yapay Zeka etik konseyi kurmaya çalışıyorum. Bir şirket, Yapay Zeka (AI) için bir kullanım durumu belirlediğinde, etik konsey bunu etik kaygılar açısından değerlendiriyor.

Ekonomik İşbirliği ve Kalkınma Teşkilatı (OECD), ekonomik ilerlemeyi teşvik etmek için 1961 yılında kuruldu ve 37 üye ülkeyi içeriyor. Şirketinizin Yapay Zeka (AI)’yı insanlara ve yaşadığımız gezegene fayda sağlayacak şekillerde nasıl kullanabileceğini düşünmek için harika bir başlangıç noktası olarak OECD, Yapay Zeka (AI) ilkelerini oluşturdu.

O zaman Yapay Zeka (AI); yasalara, insan haklarına, demokratik değerlere ve çeşitliliğe saygı duyacak şekilde tasarlanmalıdır. Yapay Zeka (AI), risklerin sürekli olarak değerlendirildiği ve yönetildiği sağlam, güvenilir ve güvenli bir şekilde çalışmalıdır. Yapay zekayı geliştiren kuruluşlar, bu sistemlerin bu ilkeler doğrultusunda düzgün işleyişinden sorumlu tutulmalıdır.

Birleşmiş Milletler’in 17 Sürdürülebilir Kalkınma Hedefi, Yapay Zeka (AI) kullanım durumlarınızı oluştururken sizin için de harika bir kaynak olabilir.

Yapay Zeka (AI)’yı kullanma şekliniz OECD ilkeleri ve BM Sürdürülebilir Kalkınma Hedefleri ile uyumluysa, onu etik olarak kullandığınızdan emin olma yolunda ilerliyorsunuz demektir…

Yapay zeka konusunda daha fazla bilgi edinmek için kitabıma göz atabilirsiniz: ‘The Intelligence Revolution: Transforming Your Business With AI

Ayrıca, yazımı okuduğunuz için teşekkür ederim. LinkedIn ve Forbes’ta düzenli olarak yönetim ve teknoloji trendleri hakkında yazılar yazıyorum. Yapay Zeka (AI) hakkında bir kitap kaleme aldım, hakkında daha fazla bilgi edinmek için buraya tıklayabilirsiniz. Gelecekteki yayınlarımı da okumak için ağıma buradan katılabilirsiniz veya ‘Takip Et’i tıklayabilirsiniz. Ve Ayrıca, Twitter, Facebook, Instagram, Slideshare veya YouTube kanalım aracılığıyla da benimle iletişime geçmekten çekinmeyin.

Bernard Marr, iş ve teknoloji alanında dünyaca ünlü bir fütürist, etkileyici bir düşünce lideridir. En çok satan 18 kitabın yazarıdır, Forbes için düzenli olarak köşe yazıları kaleme alıyor ve dünyanın en tanınmış kuruluşlarının çoğuna danışmanlık ve koçluk yapmaktadır. 2 milyon sosyal medya takipçisi var ve LinkedIn tarafından dünyanın en iyi 5 ticari influencer’ından biri ve Birleşik Krallık’ta 1 numaralı influencer olarak gösterilmiştir.

Bernard Marr

Teknik ve Teknolojik Paylaşımlar ve Hayata Dair Her Şey…
Editor | Website | Medium | Linkedin | Facebook | Twitter | Instagram | Threads | Deepbloo | Flipboard

Bernard Marr

23 stories
Destek olmak için bana bir kahve ısmarlayabilirsiniz :) ve E-Posta Bültenimize de üye olabilirsiniz…

--

--

Hüseyin Güzel
Technical Library

EEE | PSM | Technical Editor & Writer | Siemens Mobility | Technical Library | Mentor of Sabancı Vakfı | huseyinguzel.net