Makine Öğrenimi Bölüm-3 (Yapay Sinir Ağları)

E. Kaan Ulgen
3 min readOct 24, 2017

--

Bu yazımızda gözetimli öğrenme algoritmalarından Yapay Sinir Ağları (Artifical Neural Network — ANN) konusunu ele alacağız.

Şekil-1: Sinir Ağlarının Gösterimi (NTV)

Yapay Sinir Ağlarına başlamadan önce beynin temel yapı taşı olan sinir hücrelerinin çalışma prensibinden basitçe bahsetmekte fayda var. Biyolojik bir sinir hücresi temelde 4 kısımdan oluşmaktadır. Bunlar; çekirdek, gövde, akson ve dentritler. Sinir hücrelerinin ucunda bulunan dentritlerin görevi, diğer nöronlardan gelen sinyali çekirdeğe iletmektir. Çekirdek ise dentritlerin ilettikleri sinyalleri toplar ve aksonlara iletir. Toplanan sinyaller, akson tarafından işlenerek sinapslara gönderilir. Sinaps, akson ve dentritlerin birleştiği noktalardır.

Şekil-2: Sinir Hücresinin Yapısı

Yapay Sinir Ağları modelleri, biyolojik kuzenlerinin karmaşık yapılarını henüz yansıtmasalarda onlar örnek alınarak geliştirilmeye çalışılmıştır. Bu modelin geliştirilmesinde ki temel amaç, beynin öğrenme işlevinin bilgisayarlar tarafından da yapılabilme istediğidir. ANN modelleri üzerine yapılan ilk incelemeler, W.S. McCulloch (nörobiyolog) ve W.A. Pitts (matematikçi) tarafından 1943 senesinde gerçekleştirilmiştir. Daha sonraları John Hopfield, James McClelland ve David Rumelhart gibi araştırmacılar tarafından geliştirilmiştir.

Yapay sinir ağları katman sayılarına göre tek katmanlı ve çok katmanlı, öğrenme yöntemine göre gözetimli, gözetimsiz ve destekleyici, nöronlar arası bağlantı yapılarına göre ileri beslemeli ve geri beslemeli olarak sınıflandırılırlar (Çelik U., Akçetin E., ve Gök M. , 2017).

Yapay sinir ağları modelinin en büyük avantajı diğer hesaplama yöntemlerinden farklı olarak bulundukları ortama uyum sağlamalarıdır. Yani hata toleransları yüksek ve eksik bilgiyle de çalışabilmektedirler.

Tek Katmanlı Öğrenme — Perceptron

Tek katmanlı bir işlem ünitesidir. Sadece girdi ve çıktı katmalarından oluşmaktadır. Çıktı üniteleri bütün girdi ünitelerine bağlanmaktadır ve her bağlantının bir ağırlığı vardır. En basit tek katmanlı sinir ağı modeli perceptron’dur. Temel olarak eğitilebilecek tek bir yapay sinir hücresinden oluşmaktadırlar. Perceptron kavramı ilk kez 1958 yılında Cornell Üniversitesi’nden psikolog Frank Rosenbatt tarafından ortaya atılmıştır.

Rosenblatt, biyolojik sinir ağlarındaki bağlantıların tesadüfi olarak oluştuklarını ileri sürmüştür. Bunun sonucu olarak da McCulloch-Pitts Modelinin aksine en uygun aracın olasılık teorisi olacağını belirtmiştir. Tesadüfi olarak birbirine bağlanan ağların genel özelliklerinin tanımlanabilmesi için, perceptron öğrenme kuramını geliştirmiştir (Akpınar, H., 2017).

Şekil-3: Perceptron Yapısı

Tek katmanlı perceptron modeli 1969 yılına gelindiğinde rafa kaldırılmaya başlandı. Marvin Minsky ve Seymour Papert yaptıkları çalışmada (An Introduction to Computational Geometry) tek katmanlı perceptron’ların, basit problemler için geçerli iken, problemler zorlaştıkça çözümden uzaklaştıklarını gösterdiler.

Sırada Perceptron modeli için basit bir uygulama var :)

Bu uygulama kapsamında veri madenciliğiyle uğraşan herkesin bildiği iris verisi kullanıldı.

Şekil-4: Perceptron Uygulaması

Çok Katmanlı Yapay Sinir Ağları

1980'li yıllardan itibaren yapılan çalışmalarla Yapay Sinir Ağları tekrardan popüler hale gelmiştir.

Yapay sinir ağlarının günümüzde en yaygın olarak kullanılan modeli çok katmanlı algılayıcı ağlarıdır. Çok katmanlı yapay sinirleri temelde 3 kısımdan oluşmaktadır:

  • Girdi Kısmı: Bu katmanda bilgi işleme gerçekleşmez. Bilgiler alınıp gizli katmana iletilir.
  • Gizli Kısım: Girdi katmanındaki her bir elemanı, gizli katmandaki proses elemanlarının tümüne bağlıdır. Bu kısımda girdi katmanından gelen bilgiler işlenir. Bir adet gizli katman ile birçok problemi çözmek mümkündür. Fakat birden fazla gizli katmanda kullanılabilmektedir. Problemin türüne göre gizli katmaların sayısı değişmektedir.
  • Çıktı Kısmı: Gizli katmandan gelen bilgileri işleyerek dışarı iletir.

Yapay sinir ağlarında girdi değerleri bağlantı ağırlıkları ile çarpılır ve birleştirme fonksiyonu ile birleştirilerek ağın net girdisi ortaya çıkar. Net girdi, aktivasyon fonksiyonunda işlem gördükten sonra ağın net çıktısı elde edilmiş olur. (Hamzaçebi, 2011; Çelik U., Akçetin E., ve Gök M. , 2017)

Şekil-5: Çok Katmanlı Yapay Sinir Ağları

Çok katmanlı yapay sinirleri ağının eğitilmesi “Genelleştirilmiş Delta kuralı’na göre gerçekleşmektedir.

Bu yazıda temel seviyede yapay sinir ağları konusu ele alanmıştır. Gelecek yazının konusu “destek vektör makinaları” olacaktır.

Kaynaklar:

  1. Rapidminer ile Uygulamalı Veri Madenciliği (Ufuk Çelik, Eyüp Akçetin, Murat Gök), Pusula Yayıncılık — 2017
  2. DATA -Veri Madenciliği Veri Analizi (Haldun Akpınar), Papatya Bilim, 2014
  3. http://scikit-learn.org/stable/
  4. https://www.analyticsvidhya.com/blog/2014/10/ann-work-simplified/

--

--