Yapay Zekanın İstihdam Sürecine Etkisi

Betul Colak
Deep Learning Türkiye
5 min readNov 26, 2020

Teknolojinin gelişmesiyle beraber pek çok yerde olduğu gibi işyerlerinde de teknolojiden hatta yapay zekadan (YZ) yararlanmaya başladık. YZ sayesinde işyerlerinde ağır yükler kolaylıkla taşınıyor, karışık hesaplamalar saniyeler içerisinde çözülüyor ve büyük veri setleri kolaylıkla analiz edilebiliyor. Geleceğin Meslekleri 2020 Raporu‘na göre, şirketlerin % 70’i işyerinde derin öğrenmeden faydalanırken % 68’i makine öğrenmesinden faydalanıyor. Ayrıca, karar alma süreçlerinde şirketlerin %67’si YZ ‘yi karar destek mekanizması olarak kullanırken % 64’ü karar verme konusundaki tüm yetkiyi YZ’ye bırakıyor. YZ ‘nin karar verdiği ya da en azından karar verilirken ondan destek alındığı iş süreçlerinden biri de istihdam. IBM tarafından yapılan ankete göre, CEO’ların % 66’sı yapay zekanın insan kaynakları departmanı için önemli bir değer sağlayabileceğine inanıyor. Açılan iş ilanına uygun potansiyel adayların bulunması, gelen başvuruların otomatik olarak taranması, mülakata çağırılacak adayların belirlenmesi, çalışan adaylarının karakterinin açılan pozisyona uygunluğunun değerlendirilmesi ve maaşının belirlenmesi birçok süreçte YZ’ den destek alıyor. Mya Systems tarafından geliştirilen chatbot Mya insan kaynakları sürecinde şirketlere destek sunan YZ örneklerinden biri. Çalışan adayı ile gerçekleştirdiği mülakat sonrasında, Mya adaya ilişkin yaptığı puanlamayı başvuru izleme sistemine gönderiyor. Mya ‘ı etkilemeyi başarıp yüksek puan alan adaylar, insan kaynakları birimindeki kişi ile yapılacak mülakata katılmaya hak kazanıyor. Mya Systems, Mya’dan yararlanan markaların işe alım sürecinde zamandan %79 oranda tasarruf ettiğini açıklıyor.

İşverenler faaliyetlerinde YZ ‘nin sunabileceği fırsatları keşfetmeye istekliler. YZ uygulamalarını kullaranak iş süreçlerini kısaltıp zamandan tasarruf sağlamak, verimliliği arttırmak ve insanların hatasından ya da önyargısından kaynaklanan sorunları minimuma indirmek istiyorlar. Ancak dikkat etmek gerekir ki YZ şu aşamada zannettiğimiz kadar mükemmel değil. YZ algoritmalarının farklı durumlarda ayrımcılığa neden olduğu örnekler mevcut. Hatta geçtiğimiz aylarda bir kullanıcının paylaştığı fotoğrafla birlikte Twitter algoritmalarının ayrımcı olabilceğini ortaya çıkmıştı. Twitter algoritması bazen koyu tenli insanların görüntülerini göstermeyip bunun yerine beyaz tenli insanların görüntülerini göstermeyi tercih ediyor, sayfa akışına bu fotoğrafları çıkarıyordu. Twitter sözcüsü, Twitter algoritmalarında ırk ve cinsiyete dayalı önyargı içerip içermediğini kontrol etmek için daha önce testler yaptıklarını ve bunlarda herhangi bir sorunla karşılaşmadıklarını belirtmiş; ancak kullanıcılardan gelen örnekler üzerine bu konuda daha fazla çalışmaları gerektiğinin açık olduğunu ifade etmişti.

Algoritmaların ayrımcılığa yol açmasındaki nedenler arasında orantısız eğitim veri setleri ve bu verilerin geçmişteki ayrımcılığı yansıtıyor olması gösteriliyor. Eğitim veri setlerindeki orantısızlığın -çeşitlilikten yoksunluğun- istihdam sürecinde de ayrımcılığa yol açması mümkün. Örneğin belirli bir özellik ya da durum — belirli bir ülkede eğitimini tamamlamış olmak gibi — işi gerçekleştirmek için mesleki bir gereklilik olmayabilir. Böyle bir gereklilik belirli grupları -örneğin göçmenleri- dezavantajlı duruma düşürebilir. Dolayısıyla iş başvurularını sıralayan algoritma, adayların işe uygunluğunu belirlemek için bu tür bilgileri kullanmamalıdır. Yani belirli kriterlerin farklı gruplar üzerindeki etkisi dikkate alınarak, bir gruba karşı ayrımcılık yapılma ihtimalinin ayrıntılı analizi yapılmalıdır. Algoritmaların yol açtığı ayrımcılık sorununa daha somut bir gerekçe olarak bu alanda çalışanlar arasındaki çeşitlilikten yoksunluk gösterilebilir. Zira, yapay zeka profesyonellerinin yalnızca % 22’sikadınken geriye kalan % 78‘lik kesim erkektir.

İnsan Hakları Avrupa Sözleşmesi’ndeki bazı kurallar ve Veri Koruma Hukuku’ndaki bazı genel ilkeler ayrımcılığı engelleyici niteliktedir. Örneğin İnsan Hakları Avrupa Sözleşmesi’nin 14 üncü maddesi “Bu Sözleşme’de tanınan hak ve özgürlüklerden yararlanma, cinsiyet, ırk, renk, dil, din, siyasal veya diğer kanaatler, ulusal veya toplumsal köken, ulusal bir azınlığa aidiyet, servet, doğum başta olmak üzere herhangi başka bir duruma dayalı hiçbir ayrımcılık gözetilmeksizin sağlanmalıdır.” diyerek ayrımcı uygulamaları engellemeye çalışmıştır. Yine veri koruma genel ilkelerinden kişisel veriler işlenirken hukuka ve dürüstlük kurallarına uygun olarak; belirli, açık ve meşru amaçlar çerçevesinde işlenmesi gerektiği belirtilmektedir. Dahası AB Genel Veri Koruma Tüzüğü’nde verileri işlenen kişlerin hakları ve özgürlüklerine yönelik riskin (haksız veya yasa dışı ayrımcılık gibi) yüksek olması ihtimalinde Veri Koruma Etki Değerlendirmesi yapması beklenmektedir. Pozitif hukuktaki kurallar bu soruna karşı bir koruma sağlasa da sunduğu çözümler yeterli değildir. Bunun başlıca sebebi ise mevcut hukuk kurallarının eskiden beri süregelen klasik anlamda maruz kalınan ayrımcılık türlerine -cinsiyet, ırk, yaş ve din gibi- karşı düzenlenmiş olmasıdır. Oysa YZ karşımızda yeni bir ayrımcılık türü çıkarmaktadır.

Yaşanan sıkıntıların farkına varan New York Meclisi bu yıl istihdam sürecinde kullanılan otomatik karar araçlarının satışına ilişkin sektörel bazlı bir kanun tasarısı (“Fair Shot Act“, “Tasarı”) hazırladı. Tasarının düzenlemeyi amaçladığı otomatik istihdam karar araçları hâlihazırda potansiyel adayları bulmak, başvuru sahiplerinin özgeçmişlerini otomatik olarak taramak ve yönetim rolleri için kişilik özelliklerini değerlendirmek üzere tasarlanmış sistem, araç ve oyun şeklinde yaygın olarak kullanılıyor. Etik ilkeleri ışığında New York Belediye Meclisi’nde Tasarıya ilişkin görüş sunan AI Now araştırmacısı Dr. Sarah Myers West bu araçlarda ayrımcılık probleminin mevcut olduğunu belirtiyor. Myers’a göre YZ algoritmalarının niçin ayrımcılığa yol açtığını anlayamıyor (kara kutu problemi) ve bu durumun ne zaman gerçekleştiğini tespit edemiyoruz. Hatta algoritmadaki ayrımcılığın önüne geçmek için yapılan denetimler bile bu sonuçla karşılaşmamızı engellemiyor. Myers, bu sistemlerin bahsedildiği gibi sorunsuz çalışmadığını ve bazı araştırmaların bu sistemlere karşı şüpheli yaklaşım sergilediğini belirtiyor.

Myers’ a göre YZ’nin ayrımcılığa neden olacak karar vermesi iki şekilde engellenebilir: Birincisi istihdam süreçlerinde kullanılan YZ araçlarının hesap verebilir ve denetime elverişli olması, ikincisi bu araçlardaki önyargının eskiden beri süregelen diğer ayrımcılık türleri kadar önemli olduğunun farkına varılıp araştırılması. Birinci hususta, istihdam süreçlerindeki otomatik karar araçlarının nasıl çalıştığı ve sonuçlarına ilişkin hiçbir bilgimiz olmadığını belirten Myers, yapılması gereken araştırmaların şirketlerin sunduğu pazarlama iddialarının ötesine geçmesi gerektiğini vurguluyor. Önyargı konusunda ise, algoritmaların hangi verilerle eğitildiğinin önemine değiniyor. Dahası geçmişte istihdam süreçlerinde yaşanan ayrımcılık modellerini içeren veri setleriyle eğitilen bir sistemin -tam ya da kısmi- karar alırken bu önyargıları azaltmayıp aksine onları yansıtacağını (“garbage in, garbage out”) hatta güçlendireceğini belirtiyor. Gerçekten de istihdam araçlarının geçmişteki önyargıları yansıtması mümkün. Örneğin pandemi sürecinde sıklıkla tercih edilen çevrimiçi görüşme ve sohbet imkanı sağlayan Zoom uygulamasında koyu tenli kişinin ayrımcılığa maruz kaldığı ortaya çıktı. Çevrimiçi görüşme esnasında koyu tenli kişinin görüntüsü bilgisayar ekranda görünmüyordu. Benzer bir durumun istihdam sürecinde de yaşanması mümkün. YZ algoritmalarınca değerlendirilen koyu tenli çalışan adayları YZ algoritmaları tarafından değerlendirilemeyip başvurularının reddedilmesi riskiyle karşılaşabilir. Bu risklerin farkına varan teknoloji devleri de önlem almakta, yeni araçlar geliştirmektedir. Örneğin IBM tarafından üretilen algoritmaların verdiği kararların nasıl ve neden verildiğini anlık olarak izleyebilen araç bunlardan biridir. Bu araçla birlikte YZ’nin denetimi kolaylaştığını ve kara kutu probleminin bir nebze de olsa aşıldığını söyleyebiliriz.

YZ sağladığı avantajlarla işyerinde önemli bir rol oynuyor. Ancak karar verme konusunda tüm yetkinin YZ’ye bırakılması -en azından şimdilik- doğru bir tercih olmayacaktır. Tamamen YZ’nin karar verdiği süreçler varsa bile bu süreçler şeffaf olmalı ve bağımsız ve tarafsız denetçiler tarafından denetimler yapılmalıdır. Sürecin denetlenebilirliği kadar destek alınan YZ’nin de güvenilir olması gerekir. Bu da ancak yasal, etik ve sağlam bir YZ sistemi ile mümkündür. Önemli etkileri göz önüne alındığında, özellikle çalışan adaylarının böyle bir yöntemle başvurularının değerlendirildiğine dair bilgilendirilmeleri yerinde olacaktır. Ayrıca bu istihdam konusuda dahil algoritmik karar mekanizmasından yararlanılan sistemlere ilişkin çıkarılacak yasaların mağduriyet yaşayanların ihtiyaçlarına hizmet edecek şekilde tasarlanması kritik önem taşımaktadır.

https://codera.blog/2020/11/22/yapay-zekanin-istihdam-sureclerine-etkisi/

--

--

Betul Colak
Deep Learning Türkiye

After studying the English language in the U.S., I started law school at Bahçeşehir University in 2016. I am interested in IT Law.