Yapay Zeka Yolculuğunda Sorular ve Cevaplar

Tuncay ŞAHİN
Bankalararası Kart Merkezi
7 min readNov 21, 2019

Yapay zeka kavramı her ne kadar 2000'li yıllardan bu yana gündemde olsa da veri çeşitliliğinin ve veri hacminin artması ve donanım alanındaki gelişmeler sonrası yakın zamanda yeniden popüler bir teknoloji başlığı haline geldi. Tıpkı “Blokzinciri”, “Nesnelerin İnterneti”, “Robotlar”, “Giyilebilir Teknolojiler”, “Sanal/Artırılmış Gerçeklik” gibi “Büyük Veri ve Yapay Zeka” da yatırım yapılması gereken güncel teknolojik gelişme olarak değerlendirilen ancak diğer teknolojilerde de olduğu gibi nasıl ele alınacağı konusunda tereddüt yaşanan bir konu.

Harvard Business Review Türkiye dergisinin Ekim 2017'de yayınlanan sayısında Bankacılıktan sigorta sektörüne, otomotivden enerji sektörüne, lojistikten gıda ve ilaç sektörlerine farklı alanlardan 50 üst düzey yöneticiye önümüzdeki 5 yılda hangi alanlara yatırım yapmayı düşündükleri sorulmuştu. Hepsi de sektörlerine spesifik bir konuya değil yukarıda bahsedilen güncel teknolojik gelişmelere yatırım yapacaklarını belirtmişlerdi. O gün, bunların nasıl hayata geçirileceği konusunda net cevaplar yoktu. İki yıl sonunda bu alanlarda işin teorisi ile ilgili yüzlerce kitap yazıldı, çalıştaylar düzenlendi, eğitimler organize edildi. Ancak yaratılacak değerin herkes farkında olsa da bence hala bu alanlarda kurumların stratejilerinin ne olacağı, nasıl hayata geçirileceği konusunda soru işaretleri hala geçerliliğini koruyor.

2018 yılı ortalarında başlattığımız ve kurum içindeki ilk yapay zeka çalışmaları olan iki projeyi referans alarak, bu projeler boyunca edindiğimiz tecrübe ve zorlukları sizlerle paylaşmak istiyorum. Bizim karşılaştığımız bazı soru(n)lar ve bunlarla ilgili bulduğumuz çözümlerin, büyük ölçüde bu konuya ilgi duyanlar ve bu yola yeni çıkacak olanlar için de benzer olduğunu düşünüyorum. Yazıda “Büyük veri” ve “Yapay zeka” birlikte ele alınarak değerlendirme yapılmıştır.

Bir yapay zeka projesine nasıl başlayalım?

İlk olarak yapay zeka yatırımının mevcut iş yapış şeklinizi değiştirebileceğini, rakiplerinize karşı sizi öne çıkaracağını, karar süreçlerinizi hızlandıracağını, iş verimliliğinizi artıracağını … vs. düşünerek maliyeti düşük az eforla deneyim kazanmanızı sağlayacak bir kullanım senaryosu bulmanızı öneririm. Biz ilk olarak, elimizde hangi veriler var, bunları nasıl kullanabiliriz, bizde olmayan başka hangi verileri bulabiliriz ve bunlarla neler yapabiliriz diye beyin fırtınası yaparak başladık. Başlangıçta düşünce sistematiğimiz yapay zekanın nasıl çalıştığını tahayyül edemediğimizden , bulduğumuz kısıtlı sayıdaki sorun, zaten bildiğimiz mevcut yazılım geliştirme, analiz ve raporlama yöntemlerimizle çözüm üretebileceğimiz sorunlardı. Ancak biz bir yapay zeka projesi yapmak ve bu teknolojiyi tanımak ve öğrenmek istiyorduk. Üzerine kafa yormaya devam ettikçe onlarca senaryo ürettik. Bu senaryolardan, birbirinin tamamlayıcısı olacağını düşündüğümüz ikisini seçerek yola çıktık.

Sorun veriyle ilgili olduğuna göre Oracle’da, SQL Server’da sorgular yazarak, Excel’de formüller kullanarak çözülmez mi?

Aslında veri hacminiz çok büyük değilse, verileriniz yapılandırılmış (structured) şekilde tutuluyorsa, dağınık değil ve tek sistemde toplanmışsa, kısa sürede sonuç üretecek güçlü yazılım ve donanımlara sahipseniz evet yapay zekaya ihtiyacınız olmayabilir, önce mevcut imkanlarınızı etkin kullanmanızı öneririm.
• Analiz ve raporlama yaparken performans sorunları yaşayacağınız bir veri büyüklüklerine ulaştıysanız, (bizim örneğimizde günlük 25- 30 milyon işlemden oluşan 2 yıllık bir veri ile çalıştık),
• Elinizdeki verilerin içeriğini ve birbiriyle ilişkisini yeterince tanımıyorsanız,
• Veriyi kullanarak üretmeniz gereken bir sonucu basitçe formüle edemiyorsanız,
• Kural tabanlı sistemleriniz yetersiz kalıyorsa, zamanla hatalı sonuçlar üretiyorsa ve veri değiştikçe sıklıkla kurallarınızı da değiştirmeniz gerekiyorsa,
• Zaman içinde verinin içeriğinin değişmesiyle, yeni veriler eklenmesiyle birlikte tüm analizlerinizi değişmek durumunda kalıyorsanız,
• Elinizdeki zengin veriyi kullanarak belirleyeceğiniz bir algoritmayı karar süreçlerinin nihai adımı olarak konumlandırabilecekseniz,
büyük veriyle çalışıyorsunuz ve yapay zekaya ihtiyaç duyuyorsunuz demektir.

Popüler olduğu için mi, gerekli olduğu için mi yatırım yapmalıyız?

Eğer paranız ve zamanınız varsa popüler olduğu için de yatırım yapabilirsiniz. Bu, sizi rakipleriniz karşısında öne çıkaran bir unsur olabilir ama maliyetli bir hava atma yöntemidir, siz karar verin.

Her veri kullanılabilir mi?

Çok veriniz olabilir ama bu veri kullanılamayacak düzeyde kirliyse, eksik ve hatalı veriler içeriyorsa bir yapay zeka projesine başlamadan önce bir veri kalitesi projesi başlatmalısınız. Veri kalitesi projeleri bir kere yapılıp biten projeler olmuyor genellikle. Oluşan yeni verilere, ihtiyaçlara ve veriler arası ilişkilere göre belli periyotlarla ele alınması gereken bir konu. Kirlilik yaratan veri, kaynağında kontrol edilerek temizlenmeli ve sonrasında saklanmalıdır. Aktif olarak kullanılmayan, eski, kirli veri, hem maliyet hem de bilgi güvenliği açısından ek sorumluluk demektir. Eğer bir veriyi kullanmayacaksanız o veriden kurtulun, bir gün lazım olur diye kirli veri biriktirmeyin.

“Veri Bilimci” kimdir, gerekli midir, organizasyondaki yeri neresidir?

Biz projemize başladığımızda bir “Veri Bilimci”ye ihtiyacımız olacağını biliyorduk ama bu rolünün kurumdaki karşılığından emin değildik. Kurum içinden bir yazılımcıyı mı, bir veritabanı yöneticisini mi, bir veri analistini mi, bir iş analistini mi eğitimler aldırarak, bu alana yönlendirerek, destekleyerek veri bilimciye dönüştürmeliydik yoksa dışardan bir “Veri Bilimci” mi bulmalıydık? İyi de okullarda böyle bir bölüm yok, açılan bölümlerden de henüz mezun olan yok. Linked-in’e baktığınızda geçmişte yazılım yapmış, şimdilerde popüler olduğu için Python’a merak salmış, biraz veriyle haşır neşir olmuş herkes veri bilimciyim diyor.

Yapay zeka projelerinde bir algoritma geliştirilmesi ya da uygun algoritmanın araştırılıp bulunması ve büyük verinin işlenmesi önemli ölçüde kodlama (Python, R, Java…) deneyimi, istatistik bilgisi ve etkin bir veri domain tecrübesi gerektiriyor. Dolayısıyla bu rolün buna uygun olarak kurum içinden ya da dışından karşılanması uygun olacaktır. Aslında veri bilimci rolü tek bir kişide toplanması güç bir rol, geniş insan kaynağına sahip organizasyonda farklı rollerin bu veri bilimci rolünü desteklemesi ile ihtiyaç gerçek anlanda karşılanabilir. İmkanlar dahilinde, kurum içinde bilgi birikiminin arttırılması amacıyla, farklı iş kollarından çalışanların yapay zeka alanında yüksek lisans ve doktora programlarının desteklenmesi bu alandaki boşluk doldurulabilir.

Peki bu veri bilimci organizasyonda nereye, kime bağlı olacaktı. Bu pozisyonu İK’dan kim talep edecekti. Yazılım ekiplerinde mi, veritabanı yönetiminde mi, iş zekası ekibinde mi, iş biriminde mi, CRM, MIS ekiplerinde mi konumlandırılmaydı?

Bu sorunun tek ve net bir cevabının olmadığını düşünüyorum. Organizasyonun dinamikleri, kurumun büyük veri stratejisi, çözüm aranan sorunun yapısı, iş yapış biçimine göre karar verilmelidir. Biz, yazılım geliştirme ekiplerimizin sahip olduğu çevik deneyiminden yola çıkarak veri bilimcinin de tıpkı ürün sahibi, yazılım mühendisi, test mühendisi gibi çevik ekiplerin içinde bulunması gerektiğini düşündük. Veriye yakın olması açısından da bu pozisyonunun “Veri ambarı ve İş Zekası” ekibine bağlı olmasının doğru olacağına karar verdik. Böylece ileride geliştirilecek diğer yapay zeka projesinin kapsamına bağlı olarak aynı veri bilimciyi farklı çevik ekipler içinde görevlendirerek hem veriler arası ilişki konusunda deneyim kazanılması hem de standart bir “Büyük Veri Mimarisi” kullanılması sağlanmış olacaktır.

Yapay zekanın kurumdaki sahibi kimdir?

Yapay zekanın tek bir sahibi yok, yapay zeka ile çözüm üretilecek olan sorunun sahibi yapay zekanın da sahibidir. Tıpkı diğer tüm uygulama geliştirme faaliyetlerinde olduğu gibi bu bazen satış, pazarlama, kampanya yönetimi, bazen finans, hukuk, insan kaynakları, bazen BT olabilir.

Düzenleyiciler, yasalar, mevzuatlar yapay zeka projesine uygun mu?

Yapay zeka” devletin faklı kurumları tarafından da desteklenen bir konu. Yasa ve mevzuatlarda zamanla ortaya çıkan eksik ya da engeller zaman içinde düzenlenerek ortadan kaldırılıyor. Burada dikkat edilmesi gereken iki konu var, biri KVKK, diğeri de bulut kullanımı.

İster kampanya yönetiminizi optimize edin, ister insan kaynakları çözümleri geliştirin, ister müşterinizi tanımaya çalışın, isterseniz satın alma ve tedarik zinciriniz için etkin çözümler arayın bir yapay zeka projesi yapıyorsanız en çok dikkat etmeniz gereken konu kişisel verilerin korunması olacaktır. Her ulaştığınız sonuç size yeni sorumluluklar yükleyecektir.
Müşterinizin yaptığı bir alışveriş sonrasında ona önereceğiniz kampanyalar, bir başka müşterinin ya da işyeri sahibinin verileri ile öğrenilmiş bir algoritmaya göre belirlendiğinden bunun kullanılabilmesi müşterinin iznini gerektirebilir ve uygulanması oldukça güç noktalara götürebilir. Eğer bazı müşterileriniz verilerinin kullanılmasına izin vermezse bu durumda da eksik veriyle yanlış öğrenen ve hatalı çıkarımlar yapan bir algoritmanız olacaktır.

Bulut kullanabildiğinizde binlerce kez denenmiş, ters edilmiş hazır algoritmalarla tekerleği yeniden keşfetmeye gerek kalmadan, hatta verinizi bulutta bulunan başka verilerle harmalayarak hızlı ve etkin çözümler üretmeniz mümkün olabilir. Eğer bankacılık ve sigorta sektörü gibi, verilerinizi buluta çıkmanız ve algoritmalarınızı burada koşmanız önünde yasal ya da düzenleyici kurumların mevzuat engelleri varsa bu durumda projenizin maliyeti oldukça büyüyebilir. Kurum olarak biz de bu düzenlemelere tabii olduğumuzdan bulut kullanmamız mümkün olamadı. Bu nedenle kendi BT altyapımız içinde yüksek performanslı GPU/TPU donanımları, Hadoop yazılımları ve kendi geliştirdiğimiz algoritmalar için nispeten yüksek maliyetlere katlanmanız gerekti. Veriyi buluta çıkabilmek için geri dönülemez şekilde değiştirmek ya da şifrelemek, böylece başkaları için bir şey ifade etmez hale getirmek mümkün. Ancak bu durumda da verinin içeriği değiştiğinden algoritmalar istenen sonucu üretemeyecektir. (Örneğin, adı “M” harfi ile başlayan müşterilerin ortak bir özelliği var diyelim, şifrelenmiş “Müşteri Adı” alanı, bu özelliği yakalamanıza imkan vermeyecektir)

Öğrenme, tecrübe etme maliyetini nasıl optimize edeceğiz?

Yukarıda belirttiğim gibi bulut kullanımı maliyetleri azaltacaktır. Maliyeti azaltmanın bir başka yolu da yurtiçi ya da uluslar arası ArGe teşviklerinden yararlanmak olabilir.
Biz söz konusu projelerimizi Boğaziçi Üniversitesi’nden ve Yıldız Teknik Üniversitesi’nden akademik destek alarak Teydeb projeleri olarak ele aldık.

Özetle;

• Korkmayın bilmediğiniz bir şey yok, sadece yöntem değişiyor
• Verinizi tanıyın, temizleyin, gereksiz yüklerden kurtulun
• Verinizi görselleştirin, kurum içinde yeni paydaşlar yaratıp onları etkileyin
• Yapay zekanın popülaritesine kapılmayın
• Çözüme odaklanın, “Harika BT Projesi” yapmayın, amacın yapay zeka değil, değer yaratmak olduğunu unutmayın
• Tekerleği baştan keşfetmeyin, yol göstericiye ihtiyaç duyacaksınız, danışın
• İlk maliyet yüksek olabilir, maliyetlerinizi optimize edin. Bunun için akademiyi, teşvikleri, (mümkünse) bulutu kullanın
Büyük yatırımlar için acele etmeyin, küçük kazanımlar ve deneyimler sonrasında karar verin

Bu yazıda cevaplanmaya çalışılanlar başlıklar dışında daha pek çok soruya cevap aramak mümkün. Belki ilerde bir başka yazıda da çözemediğimiz, yolunda gitmeyen, yanlış yaptığımızı farkederek düzelttiğimiz konularla ilgili tecrübemizi paylaşırım.

Araştırmaya, öğrenmeye, denemeye ve üretmeye devam…

NOT: Yazının içeriğine değerli katkılarından dolayı Umut Önceler’e teşekkür ederim.

--

--

Tuncay ŞAHİN
Bankalararası Kart Merkezi

BKM, BKMExpress, TROY, FAST, KOLAS, OpenBanking, TRKarekod, InstantPayments PaymentSystem, Authorization, Clearing, POSManagement, Fraud, BigData, DevOps, Agile