Sinir Ağları ve Derin Öğrenme — XIV : Aktivasyon Fonksiyonları

Eren Bozarık
SMLR CENTER
Published in
2 min readMar 22, 2020

Hücreye gelen net bilgiyi analiz ederek, hücrenin giriş bilgisine göre karşılık üreteceği çıkış bilgisinin belirlenmesini sağlar. Ağ modelini geliştiren kişiye göre değişkenlik gösterir. Yani ara katmanda Tanh aktivasyon fonksiyonu kullanılırken çıkış katmanında sigmoid fonksiyonu kullanılabilir. Şimdi aktivasyon fonksiyonlarını ve verdikleri çıktıları inceleyelim.

Sigmoid Fonksiyonu

Yukarıda da gösterildiği üzere fonksiyon 0 ve 1 arasındaki y değerleri için tanımlı olup x=0 ekseninden önce 0’a sonrasında ise 1’e yakınsamaktadır.Sigmoid aktivasyon fonksiyonu sürekli ve türevi alınabilir bir fonksiyondur. Doğrusal olmayışı dolayısıyla yapay sinir ağı uygulamalarında en sık kullanılan fonksiyondur.

Tanh Fonksiyonu

Tanh fonksiyonu sigmoid fonksiyonuna çok benzer. Aslında sadece sigmoid işlevinin ölçeklendirilmiş bir versiyonudur.

ReLU Fonksiyonu

ReLU fonksiyonu, en çok kullanılan aktivasyon fonksiyonudur. İlk önce, ReLU işlevi doğrusal değildir; bu, hatalara kolayca geri-yayılım algoritmasını uygulamamıza olanak tanır ve ReLU işlevi birden fazla nöron katmanına sahip sinir ağlarında kullanılabilir.

--

--

Eren Bozarık
SMLR CENTER

Sr. Data Scientist & SWE | Galatasaray University