Sinir Ağları ve Derin Öğrenme — V : Gradyan İnişi
Gradyan İnişi (Gradient Descent)
Burada maliyeti minimize etmek için en uygun ‘W’ ve ‘b’ değerlerini bulmaya çalışıyoruz. gradyan inişi metodu, çok güclü ve çok genel optimizasyon metodudur.
Gradyan inişi, makine öğrenmesi alanında popüler bir yöntemdir, çünkü makine öğrenmesinin amaçlarından biri, eğitim verisi göz önüne alındığında, en yüksek doğruluğu bulmak veya hata oranını en aza indirmektir. Gradyan inişi “maliyet fonksiyonunu“en aza indirgeyerek asgari hatayı bulmak için kullanılır.
- Bir J(w,b) noktası alalım, bu noktada gradyan inişi metodu için başlangıç noktamız olacaktır.
- Devamlı J’nin değerlerini azaltmak için uzayda küçük adımlar atıyoruz. Bu yöntemin temel amacı gradyan inişleri kullanarak gözlenen riski yanı tahmine bağlı hatanın minimize etmektir. Her iterasyonda gradyanlara bağlı ağırlıklarda azaltmalara/güncellemelere gidilir.
- J’nin değerleri sürekli azarlır zorunda Çünkü; J =>0 olmali
- Bu süreç sonunda bir noktaya gelmek zorundadır (sonsuz devam edemez yani)
Bu metot birkaç rastgele başlangıç nokta ile çalıştırılmalı, ve en iyi minimum seçilmeli
Gradyan İnişi Algoritması : α= Öğrenme Katsayısı
Öğrenme Katsayısı (α) Seçme
- Küçük α – yavaş yakınsama
- Büyük α –ileri geri yakınsama
- İyi bir α seçmek için, birkaç α değerini denemek lazım
- Bu değerler için, dereceli azaltma metodunu çalıştırıp performansını incelemek lazım
Tipik denenecek α değerleri:
- α = 0.001, 0.003, 0.01, 0.03, 0.1, 0.3, 1, 3, 10,…