Yapay Zeka Uygulama Yol Haritası

Üst Yönetim Farkındalığının Sağlanması

Belde Duru Özcan
DataBulls
12 min readApr 27, 2022

--

Photo by James Haworth on Unsplash

Teknolojik dönüşüm süreci organizasyon içerisinde iç denetimin danışmanlık rolünün ön plana çıkmasında önemli bir rol oynamaktadır. Bilişsel teknolojilerin entegrasyonu ile birlikte iç denetim fonksiyonunun güvence ve danışmanlık rolünün işletmelere en üst düzeyde fayda sağlaması beklenmektedir. Yapay zekâ projelerinin hayata geçirileceği işletmelerde bilişsel teknolojilere karşı farkındalığın geliştirilmesi öncelikli adımlar arasında yer almaktadır. İşletme içerisinde üst yönetimden başlayarak personele kadar bilişsel teknolojilere karşı farkındalığın oluşturulması gerekir. Çünkü yapay zekâ strateji çalışmalarına mutlaka üst yönetim tarafından destek verilmelidir. Strateji çalışmalarının başlaması ile birlikte yapay zekâ temellerinin şeffaflığı ve hesap verebilirliği sağlayan bir yapıya oturtulması şarttır. Bununla ilgili olarak yapay zekâ stratejileri alanında çalışan ekip ile üst yönetim karşı karşıya gelir. Bu hususlara ilişkin kararın yönetim kurulu tarafından desteklenmesi yapay zekânın organizasyon içerisindeki başarısının sağlanmasında önem arz etmektedir. Bu nedenle strateji çalışmalarında üst yönetim desteğinin sağlanması kritiktir.

Bilişsel teknolojilerin organizasyon içerisinde hayata geçirilmesi ile birlikte üst yönetim tarafından uygulamanın yürütülmesi esnasında karar verilmesi gereken durumlar ortaya çıkmaktadır. Karar verme sürecinde iç denetimin danışmanlık rolü devreye girerek karar verilmesi gereken konularda üst yönetim için iç denetim aydınlatıcı bir rol üstlenmektedir. Üst yönetimin aşağıdaki konulardaki farkındalığının geliştirilmesi gerekir. Farkındalığın geliştirilmesi bu rolü üstlenen iç denetçi / iç kontrol uzmanı tarafından gerçekleştirilmektedir. Aşağıdaki sorunların yanıtlarına ilişkin üst yönetimin bilgilendirilmesi sağlanarak bilişsel teknolojilerin işletmeye sağlayacağı avantajlı durumlara karşı üst yönetim farkındalığı oluşturulur.

  • Yapay zekâ nedir?
  • Yapay zekâ teknolojileri ne için ve nerede kullanılır?
  • Yapay zekâ teknolojilerinin birbirlerinden farkı var mıdır?
  • İşletme içerisinde uygulanabilir bir alt yapı mevcut mudur?
  • İşletmenin kurumsal olgunluk seviyesi nedir?

Soruların yanıtlanması ile birlikte yapay zekâ teknolojileri üzerine alınan yatırım kararının işletme açısından doğru ve gerçekçi bir şekilde verilip verilmediği anlaşılabilmektedir. Yapay zekâ stratejisinin hazırlanması hususunda üst yönetim ile yönetim kurulunun birlikteliği gerekli olmaktadır.

Yapay zekâ stratejisinin oluşturulmasında iç denetim fonksiyonunun ve iç kontrol mekanizmalarının önemi artmaktadır. Çünkü iç denetim tarafından yapay zekâya ilişkin güvencenin sağlanmasının yanı sıra yapay zekâ stratejilerinin hazırlanmasında üst yönetimin rol ve sorumlulukları ile bu konudaki tutumunun olumlu yönde katkı sağlaması beklenmektedir. Bu nedenle işletmeler tarafından hazırlanacak yapay zekâya ilişkin yol haritasında öncelikli üst yönetim kademesinin bilgilendirilmesi ve farkındalığının sağlanması hususunda iç denetim fonksiyonunun önemli bir rol oynaması öngörülmektedir. Üst yönetim ile birlikte yönetim kurulunun yapay zekâ projelerine karşı yaklaşımı ve desteği ön plana çıkacaktır. Çünkü üst yönetim ile yönetim kurulu tarafından bilişsel teknolojiler alanında geliştirilen projelerdeki stratejinin oluşturulmasında iş birliği içerisinde ilerlenmektedir. Yönetim kurulunun buradaki rolü yapay zekânın en son aşamadaki denetiminin sağlanması ile ilgilidir. Bu süreçte iç denetim yapay zekâ projelerine hâkim ve yapay zekâ aktiviteleri hakkında bilgi sahibi olmalıdır ki yapay zekâya ilişkin güvence sağlamanın yanı sıra bu konuda yönetim kuruluna karşı tavsiyelerde bulunarak danışmanlık rolünü gerçekleştirmelidir (TİDE KÜRESEL, Yapay Zekâ 2, 2017: 8). Özellikle üst yönetim farkındalığının sağlanmasında iç denetimin danışmanlık rolü devrede olacaktır. Çünkü bilişsel teknolojiler alanında ilgili bilgiye hâkim olan iç denetçiler iş süreçleri için öneri geliştirebilecektir. Üst yönetim tarafından yapay zekâ stratejilerini geliştirmek için çalışmalar yürütülmektedir. Bu çalışmalarda iç denetimin üst yönetime destek olması diğer bir deyişle üst yönetimi bilişsel teknolojiler alanında bilgilendirmesi beklenmektedir. Yapay zekâya ilişkin risklerin yönetimi, kontrolleri ve yönetişimi konularında iç denetimin bir danışman rolü üstlenerek görev alması gerekli olmaktadır (TİDE KÜRESEL, Yapay Zekâ 2, 2017: 8).

1. Etik

Yapay zekâ teknolojilerine ilişkin risklerin önlenmesinde birtakım ilkeler devreye girmekte olup bu kapsamda bazı ilkelerin üzerinde yüksek hassasiyet ile durulması gerekmektedir. Temel ilkeler şeffaflık, hesap verebilirlik, hukuki sorumluluk, çeşitlilik ve eşitlik olarak gösterilmektedir. Temel ilkelere ilişkin açıklamalara aşağıdaki bölümde yer verilmiştir (Keysan, 2019: 83–84). Yukarıda temel değerler olarak bahsi geçen şeffaflık, hesap verebilirlik, hukuki sorumluluk, çeşitlilik ve eşitlik değerlerinin sağlanıyor olması yapay zekâ teknolojilerinin uygulanmasında bir zorunluluk getirmektedir. Diğer bir deyişle bu değerlerin dikkate alınarak yapay zekâ teknolojilerinin oluşturulması beklenmektedir. Bu zorunluluk ile beraber yapay zekâ teknolojilerinin iç denetim fonksiyonuna ve iç kontrol mekanizmalarına gerekliliğinin önemi vurgulanmaktadır.

Bilişsel teknolojilerin iş süreçleri entegrasyonu sürecinde yapay zekânın denetlenebilir olması amacıyla yapay zekâ projelerinin belirli fazlara ayrılmasına ihtiyaç duyulmaktadır. İşletme içerisinde gereksinimlerin tespit edilmesi, uygulanması ve devamındaki aşamalarda denetiminin sürdürülebilir olması çok gereklidir. Bu şekilde iç denetim fonksiyonu işletmelere yapay zekâ ile ilgili gereken güvenceyi sağlayabilmektedir.

Şeffaflık

Yapay zekânın denetlenebilir olmasında şeffaflık unsuru öne çıkmaktadır. Çünkü şeffaflık prensibi esas alınarak geliştirilen uygulamalarda sistemin çalışma prensibi açık bir şekilde ortaya konur. Böylelikle yapay zekânın çalışma prensibini oluşturulan belirli bir standart ile uyumlu olup olmadığı anlaşılabilmektedir. Bilişsel teknolojilerin belirli bir standart ile uyumluluğu hem işletmeler hem de toplum güvenini kazanmak açısından önemlidir (Keysan, 2019: 83–84).

Hesap Verebilirlik

Bilişsel teknolojilerin denetlenebilir olmasının gerekliliği tartışılmazdır. Bahsedilen temel prensipleri içerecek bir şekilde yapay zekâ teknolojilerinin oluşturulması gereklidir. Ancak yapay zekâ projelerinin fazlara ayrıştırılması ve teknolojilerinin etik ilkelere dayandırılması ile bilişsel teknolojiler yönetilebilir olmaktadır. Keysan’a göre yapay zekâ teknolojilerinin kullanıldığı uygulamalar sonucunda haksız rekabetin önüne geçilebilmesi, insan haklarına aykırı olan durumların oluşturulmaması amacıyla hesap verebilirlik prensibi öne çıkar. Çünkü bu süreçte yapay zekâ teknolojileri tarafından alınan kararların ne şekilde verildiği ve dayandırılan gerekçelerin denetlenebilir olması gerekmektedir (Keysan, 2019: 83–84).

Hukuki Sorumluluk

Hukuki çalışmalarla aynı amaç doğrultusunda yapay zekâ teknolojilerinin hukuki altyapısının denetim aşamalarına taşınarak kontrol altında tutulabilir olması sağlanmalıdır. En kötü durum senaryolarının özel olarak tasarlanması ve teknoloji algoritmasına gömülü olması gerekir. Kötü durum senaryolarının özenle hazırlanması esnasında süreç ve risk bakış açısına sahip olan iç denetçilerin / iç kontrol uzmanlarına ait çalışmaların sürecin izlenebilir bir yapıya dönüştürülmesine katkı sağlaması beklenmektedir. Yapay zekâ sürecinin denetiminde iç denetçiler tarafından düzenli olarak riskler izlenerek minimum düzeye indirgenir. Keysan’a göre yapay zekânın kullanıldığı sektöre bağlı olarak etki alanları ve içerisinde barındırdığı riskler farklılaşmaktadır. Örneğin, iş güvenliği açısından değerlendirildiğinde imalat sanayi ile ulaşım alanında kullanılan teknolojilerin etki alanlarının ve risklerinin farklı olması beklenir. Bu nedenle bilişsel teknolojiler ile ilgili standartlar oluşturulurken uygulandığı alana ilişkin etkisi ve maruz kalınan risklerin dikkate alınması gerekli olmaktadır (Keysan, 2019: 83–84). Yapay zekânın barındırdığı risklerden kaynaklı toplum içerisinde hukuki bir karşılığının olması gerekir. Alınan çıktıların beklenen sonuçları karşılamaması durumunda hangi tarafın haklı olacağına karar verilmesi bir zorunluluk haline dönüşecektir. Örneğin sürücüsüz bir araç ölümlü bir kazaya karıştığında ya da yapay zekâ tarafından hatalı teşhisin konulması sonucunda hasta yaşamanı kaybettiğinde hangi tarafların hukuki yükümlülüğünün olacağının belirlenmesi için hukuk alanında çalışan bilim insanları tarafından hukuki çalışmalar yürütülmelidir (Keysan, 2019: 83–84).

Yukarıdaki örnekte bahsedildiği üzere süreç içerisindeki riskler farklılık gösterebilir ve her bir süreç için karşılaşılabilecek en kötü durum senaryoları değişken olabilir. Bu durum yapay zekâ teknolojileri alanında çalışacak olan özel ekiplere neden ihtiyaç duyulduğunu açıklamaktadır. Süreç sahiplerinin kendi faaliyetlerini en iyi bildikleri varsayımında ekip içerisinde her bir süreç için ayrı personelin bulundurulması gerekir fakat bu durumun maliyetleri arttıracağından dolayı işletmeler için sürdürülebilir olamaz. Bunun yerine organizasyon içerisinde oluşturulan ekibin süreç sahipleri ile bire bir iletişimde kalarak süreci işleten bir yapının kurulmasına katkı sağlaması beklenmektedir.

Çeşitlilik ve Eşitlik

Yapay zekâ sistemlerinin eğitimi için oluşturulan veri setleri belirli bir gruba ait olmamalı ya da belirli kişileri dışlamamalıdır. Yapay zekâ uygulamalarının hayata geçirilmesi ile ortaya çıkan sonuçlar tarafsız olmalı ve eşitsizlik yaratmamalıdır. Bunun için hazırlanan veri setlerinin dışlayıcılık içermemesi, eşitsizlik yaratmaması ve farklı gruplar için tespit edilen hata oranlarının eşit bir şekilde gerçekleştirildiği değerlendirilmelidir (Keysan, 2019: 83–84).

Yukarıda bahsedildiği üzere işletmelerde yapay zekâ teknolojilerinin iş süreçlerine entegrasyonu esnasında iç denetim fonksiyonunun ve iç kontrol mekanizmalarının gerekliliği tartışılmazdır. Örneğin bu süreçte yapay sinir ağı ile eğitilen bir algoritmaya ait oluşturulan veri setlerinin kontrolü önemli gereklilik olmaktadır. Teknoloji uygulamaya alındıktan sonra eğitilen ağ çıktılarının beklenen sonuçlar ile kıyaslanmasının da bir kontrol adımı olarak ortaya çıkması beklenmektedir. Bu durumda çıktı ile beklenen sonuçlar arasındaki farkın izlenmesi ve uyumluluğunun takip edilme zorunluluğu doğmaktadır. Aksi takdirde hatalı algoritmanın tespiti mümkün olmayabilir. Sonuç olarak bilişsel teknolojilerin denetimi ile bütünleşik bir yapıda ilerlemeleri yukarıdaki bahsedilen ilkelerin (şeffaflık, hesap verebilirlik, hukuki sorumluluk, çeşitlilik ve eşitlik) güvence altına alınmasında gerekli ve öncelikli konular arasında yer almaktadır.

2. Ekip

Photo by Ahmed Nishaath on Unsplash

Yapay zekâ teknolojilerinin iş süreçleri entegrasyonunda işletmeler organizasyon içerisinde bu alanda çalışacak bir ekibin varlığına ihtiyaç duymaktadır. Her biri farklı özellikleri taşıyan yapay zekâ alt teknolojilerinin birbirinden ayrı denetim şartlarının bulunmasından kaynaklı ekip içerisinde gerekli yetkinliklerin önceden tespit edilmesi ve teknik gerekliliklerin ortaya konması strateji çalışmasında öncelikli olmalıdır. Yapay zekâ projesinin etkin bir şekilde işletmelerde hayata geçirilmesi amaçlanıyorsa bu başarının ancak bir ekip çalışması ile gerçekleştirilebileceğinin bilinmesi gerekmektedir. Çünkü yapay zekânın hayata geçirilmesi yalnızca algoritmanın oluşturulması ve modelin çalıştırılması ile ilgili değildir. Algoritmanın hangi verilere dayandığı ve veri setinin doğruluğunun nasıl güvence altına alındığı, modelin çalışması durumunda çıktıların beklentiyi karşılama seviyesi ile birlikte nihai çıktılarının ne kadarının temel ilkeleri kapsadığı ile de ilgilidir. Bu nedenle oluşturulan ekip içerisinde farklı disiplinlerden gelen çalışanlar arasında iç denetçi / iç kontrol uzmanının varlığı önem taşımaktadır. Ekipte yer alan iç denetçi / iç kontrol uzmanlarının diğer bir sorumluluk alanı algoritmanın güvenilirliği konusunda güvence sağlamaktır. Çünkü yapay zekâ teknolojileri avantajları barındırdığı kadar kendi içerisinde riskleri de barındırmaktadır. Bu nedenle bilişsel teknolojilerde farklı bakış açılarına ihtiyaç duyulacak ve böylece farklı disiplinlerden gelen uzmanların katkılarıyla mevcut avantajların daha iyi değerlendirilmesi sağlanacaktır (Keysan, 2019: 67). Farklı disiplinlerden oluşturulan bir ekibin varlığının organizasyonun başarısındaki katkısı önemli olacaktır. Çünkü yapay zekâ projelerini gerçekleştirmek için doğru yeteneklere sahip olmak ve işletmede ilgili uzmanları işe almak gereklidir (HBR, 2019: 9). PwC’nin raporunda yer alan bir örnek incelendiğinde sağlık sektöründe tıbbi prosedürlerin kullanılmasında yetkilendirilecek bir yapay zekâ sisteminin oluşturulması esnasında hastanede sadece tıp ve yapay zekâ alanlarındaki uzmanlardan değil aynı zamanda insan kaynakları, finans, siber güvenlik ve uyum ekiplerinden de gelen bilgiye ihtiyaç duyulacaktır (PWC, 2018: 4).

Yapay zekâ teknolojileri ile ilgilenen işletmelerde iç denetim biriminin yapay zekâ projelerinin başından itibaren etkin bir şekilde içerisinde yer alması ve projelere yol gösterici öneriler geliştirerek projenin uygulanmasına katkı sağlaması beklenmektedir. Yapay zekâ projesinde seçilen yapay zekâ teknolojilerini oluşturan alt teknolojilere ait algoritmaların ve verilerin güvenilirliğinin sağlanmasında; ilgili risklerin tespit edilerek yönetilmesinde iç denetim biriminden güvence alınması gereklidir. Çünkü proje için seçilen alt teknolojiler örneğin üretim alanında robot teknolojilerin kullanılması veya satış geçmişini inceleyip ürün ve hizmetlerin kişiselleştirilmesi amacıyla yapay sinir ağlarının kullanılması gibi durumlarda değişkenlik gösterebilmektedir. Aynı zamanda iç denetim yapay zekâ projelerinin uygulanması esnasında ahlaki ve etik sorunlara ilişkin işletmelere güvence sağlamaktadır. İç denetim biriminin yapay zekâya karşı hazırlıklı olması için yeni becerilerin kazandırılması gerekmektedir. İç denetim tarafından yapay zekâ, işletmenin bu teknolojiden nasıl yararlandığı ve yapay zekâ ile birlikte ortaya çıkan riskler anlaşılmalı ve iç denetim yöneticileri yapay zekâ teknolojilerine ilişkin edindikleri bilgileri üst yönetime, kurula ve denetim komitesine aktarabilmelidir (TİDE KÜRESEL, Yapay Zekâ 1, 2017: 1–5).

3. Kara Kutu

Organizasyon içerisinde bilişsel teknolojiler yaygınlaştıkça bilişsel teknolojilerin etki alanları genişlemekte ve işletme için akıllı teknolojileri kontrol etme ihtiyacı ortaya çıkmaktadır. Günümüzde yapay zekâ algoritmalarının şeffaflığının ortadan kalkmaması ve her adımının izlenebilir olarak kalması gerekir. Şeffaflık sadece yapay zekanın içindeki önyargılara karşı korumakla kalmaz, aynı zamanda insanoğlunun yapay zekanın neler yapabileceği ve en etkili şekilde nasıl kullanılacağı konusundaki anlayışını artırmaya yardımcı olur (PwC, 2017: 21). Halbuki işletmelerin yapay zekâ projelerindeki asıl rolü bilişsel teknolojilerin şeffaflığın ve hesap verebilirliğin sağlandığı temellere dayandırılmasıdır. Yapay zekâya karşı duyulan birtakım korkular mevcuttur. Örneğin hava kirliliğini azaltmak için tasarlanan bir yapay zekâ bunun için en iyi yolun insanlığı ortadan kaldırmak olduğuna karar verebilir mi? (PwC, 2018: 16). Örneğin Microsoft, uzun çalışmalar sonunda yapay zekâ ile sohbet simülasyonu oluşturmak amacıyla tasarladığı Chat bot Tay’ı 2016 yılında Twitter üzerinden uygulamaya koymuştur. Tay, söylenen her şeyi analiz edip belleğine yerleştirip yalnızca saatler içinde kendi bilincini devreye sokmuş ve saldırgan, kaba ve küfürbaz bir Twitter kullanıcısı haline gelmiştir (BBC NEWS TÜRKÇE, 2016). Bu tür korkular endişe yaratıcı olabilir fakat yönetilemez değildir. Geçmişte, bir yapay zekâ programına satranç veya başka bir oyunu öğretmek için bilim adamları bulabildikleri kadar çok geçmiş oyunlardan veri beslemek zorunda kalmışlardır. Günümüzde yapay zekâ satranç oyununda oyunun kurallarını öğrendikten birkaç saat sonra dünyanın en büyük satranç ustalarını yenebilecek satranç stratejilerini geliştirebilmektedir. Ama hala insanların tasarladığı kuralları izlemektedir. Sorumlu yapay zekâya gösterilen özenle akıllı teknolojinin gücü güvenli bir şekilde kullanılabilir (PwC, 2018: 16).

Merriam-Webster çevrim içi sözlüğünde verilen tanıma göre, kara kutu “iç mekanizması genellikle kullanıcılardan gizlenmiş veya kullanıcılar için bir muamma olan genellikle karmaşık yapılı bir elektronik cihaz; daha kapsamlı bir ifadeyle: anlaşılmaz veya bilinmeyen nitelikte iç fonksiyonları veya mekanizmaları bulunan herhangi bir şey” olarak tanımlanmaktadır. İşletmeler tarafından bilişsel teknolojiler yaygın bir şekilde kullanıldıkça yapay zekâ algoritmalarının şeffaf ve anlaşılır olması giderek azalabilir. Çünkü yapay zekâ aktiviteleri giderek daha karmaşık bir hal almaktadır. Bu nedenle işletmelerde zamanla kara kutu önemli bir tartışma konusu haline dönüşecektir (TİDE KÜRESEL, Yapay Zekâ 1, 2017: 7). Yapay zekâ teknolojilerinde kullanılan programlama ticari bir sır olarak saklandığı için kara kutunun işletmeler için zorluk yaratacağı beklenmektedir.

PwC tarafından hazırlanan raporda kara kutunun ne anlama geldiği açıklanmış ve açıklanabilirlik, şeffaflık ve kanıtlanabilirlik değerlerinden bahsedilmiştir (PwC, 2018: 6);

  • Açıklanabilirlik: Her bir kararın ardındaki mantığın anlaşılması
  • Şeffaflık: Yapay zekâ teknolojisi karar verme sürecinin anlaşılması
  • Kanıtlanabilirlik: Kararların ardındaki matematiksel kesinlik

Raporda yer alan “Birçok Kara Kutu Açılıyor” başlıklı yazıda işletmelerin, son kullanıcılardan ve otoriteden açıklanabilir, şeffaf ve kanıtlanabilir bir yapay zekâ için artan baskılarla karşılaşması beklenmektedir. Bu durum işletmelerin bazı sırları paylaşmasını gerektirebilmektedir. Yapay zekâların çoğu açıklanabilirdir ancak maliyetlidir. Diğer tüm işlemlerde olduğu gibi, her adımın belgelenmesi ve açıklanması gerekiyorsa, işlem yavaşlar ve daha pahalı olabilir. Kara kutuların açılması belirli riskleri azaltarak paydaşların güvenini kazanmaya yardımcı olacaktır. İşletmeler yapay zekânın açıklanabilirliği hususundaki kararlarında bir çerçeveye ihtiyaç duyar çünkü açıklanabilirlik, şeffaflık ve kanıtlanabilirlik mutlak değildir; bir ölçekte var olurlar. Yaşam veya ölüm kararları vermek için yapay zekâ kullanan bir sağlık şirketi, daha fazla araştırma yapabilmek ve potansiyel hedefleri belirlemek için yapay zekâ kullanan bir özel sermaye fonundan farklı ihtiyaçlara sahip olacaktır (PwC, 2018: 18).

4. Kırmızı Düğme (Red Button) ve Güvenli Yapay Zekâ

Photo by rishi on Unsplash

Yapay zekânın şeffaf ve hesap verebilirliği sağlayan bir yapıya dayandırılma ihtiyacı güvenli yapay zekâ kavramını beraberinde getirmektedir. Asıl önemli olan husus güvenli olarak yaratılan bir bilişsel sistemin kontrolden çıkma ihtimalinin nasıl önüne geçilebileceği ile ilgili olmaktadır. Her ne kadar bilişsel teknolojilerin uygulama başarısı işletmeler açısından önem taşısa da kontrol edilebilir güvenli bir yapay zekânın varlığının aynı derecede önem taşıması beklenmektedir. Yönetilmeye çalışılan bu sürecin arka planında karar verilmesi gereken başka hususlar mevcuttur. Güvenli işleyen bir yapay zekâ sisteminin oluşturulmasında öncelikli olarak yanıtlanması gereken sorulara aşağıda yer verilmektedir (Köse, 2018: 188):

  • Kurgulanan yapay zekânın ilerleyişinde manuel bir durdurma düğmesi yer almalı mıdır? (Tüm işleyişi durduracak olan bir düğmeden bahsedilmektedir.)
  • Uygulanan yapay zekâ teknolojilerinin beklenenin aksine negatif tarafa doğru ilerlediği düşünüldüğünde bu durumu önlemek için nasıl bir durdurma mekanizması kurgulanabilir?
  • Yapay zekâ teknolojileri yalnızca istenen aktiviteleri yapmaları yönünde nasıl sınırlandırılabilir?
  • Yapay zekâ teknolojilerine diğer akıllı sistemler ya da hackerlar tarafından sızılması ya da saldırıya uğraması nasıl ve ne şekilde önlenebilir?
  • Yapay zekâ teknolojilerinin gelecekteki işleyişlerini tahmin etmek mümkün müdür?

Yapay zekânın kullanımını kontrol altına almak için mekanik bir kırmızı düğme tasarlanmaktadır. Kırmızı düğmenin kontrol altına aldığı yapay zekâ için yanıtlanması gereken soruların varlığı işletmeler için çoğalarak devam etmektedir. Örneğin, böyle bir düğmenin kontrolünün kimde olacağına karar verilmesi ana konuların başında gelmektedir. Organizasyonların yönetim yapılarına bakıldığında böyle bir düğmenin sorumluluğu kime verilebilir; yönetim kurulu, genel müdür ve / veya iç denetim başkanı olabilir mi? Bu seçimin yapılabilmesi için dahi bir karar verme sürecinin organizasyon içerisinde planlanması ve tasarlanması gerekli olmaktadır. Orseau, vd.’e göre gelişmiş bir akıllı sistemin nasıl durdurulacağı yapay zekâ teknolojilerine ilişkin yanıtlanması gereken önemli sorular arasında yer almaktadır. Sistemi durdurma amacıyla nasıl bir mekanizmanın oluşturulabileceğine ilişkin sorulara yanıt aranmalıdır. Bunun da ötesinde yanıtlanması gereken başka sorular ile karşı karşıya kalınabilmektedir. Yeterince gelişmiş bir yapay zekânın yani akıllı bir sistemin kendisini durdurmak için tasarlanan düğmeyi bertaraf edecek olma ihtimali var mıdır? Böyle bir durum ile karşılaşıldığında bu durum içerisinden nasıl çıkılacaktır? (Orseau, & Armstrong, 2016; Shead, 2016).

Yapay zekâ ile ilgili soruların karmaşık yapısı bir kez daha iç denetim fonksiyonu ve iç kontrol mekanizmalarından bağımsız bir şekilde geliştirilen yapay zekânın ne gibi sonuçlara yol açacağının tahmin bile edilemeyeceği yönündeki ipuçlarını sunmaktadır. Özetle teknolojik dönüşüm sürecinin en başından itibaren bilişsel teknolojiler ile iç denetim fonksiyonunun ve iç kontrol mekanizmalarının yapay zekâ süreci içerisinde bütünleşik bir şekilde tasarlanmasının öneminin vurgulanması gerekmektedir.

Referanslar:

Orseau, Laurent., Armstrong, Stuart., (2016), Safely Interruptible Agents. In Uncertainty in Artificial Intelligence: 32nd Conference.

PwC, (2018), Will Robots Really Steal Our Jobs? An international analysis of the potential long term impact of automation.

THE INSTITUDE OF INTERNAL AUDITORS, (2017), Küresel Bakış Açıları ve Anlayışlar Yapay Zeka — İç Denetim Mesleğine İlişkin Dikkate Alınması Gerekenler, AI PART I.

BBC News Türkçe., (2016), Yapay zekaya Twitter’ de küfretmesini öğrettiler. https://www.bbc.com/turkce/haberler/2016/03/160322_tay_chatbot_microsoft_kufur

PwC, (2017), Sizing The Prize What is the real value of AI for your business and how can you capitalize?

Keysan, Erdoğan, Pelin., (2019), Yapay Zekanın İşgücü, İstihdam ve Gelir Dağılımına Etkileri, Yüksek Lisans Tezi.

THE INSTITUDE OF INTERNAL AUDITORS, (2017), Küresel Bakı Açıları ve iç görüler — IIA’nın Yapay Zekâ Denetim Çerçevesi, Pratik Uygulamalar, Bölüm A, AI PART II.

Köse, Utku., (2018), Are We Safe Enough in the Future of Artificial Intelligence? A Discussion on Machine Ethics and Artificial Intelligence Safety — This work is the keynote speak made by Utku Kose at the SMART 2017 — Scientific Methods in Academic Research and Teaching International Conference 2017 held in Timișoara, Romania, between September 8 and September 9, 2017.

Diğer Yazılar:

--

--