Makine Öğrenmesi Algoritmaları için Matematik

A.Oğuzhan Durmaz
Data Runner
Published in
4 min readNov 11, 2019

Saf matematik, mantıklı fikirlerin şiiridir. — Albert Einstein

Bu yazıda farklı makine öğrenmesi algoritmalarını anlamak için gerekli matematik üzerine konuşacağız.

Lineer Regresyon

Lineer Regresyon iki değişken arasındaki ilişkiyi bir lineer denkleme uyarlayarak temsil etmeye çalışır. Denklemde değişken bağımsız(açıklayıcı) ve bağımlı değişkenler olmalıdır.

Lineer modeli uygulamadan önce bu değişkenler arasındaki ilişkiyi kontrol etmemiz gereklidir. Bu bir değişkenin diğerinin sonucunu etkilediği anlamına gelmez. Örneğin yüksek IQ’ya sahip olmak notlarınızın da yüksek olacağı anlamına gelmez. Bunun yerine değişkenler arasındaki bir tür anlamlı ilişki söz konusudur.

Scatter Plot — Dağılım Grafiği

Değişkenlere dağılım grafiği(scatter plot) uygulamak, genel eğilimdeki artış ve düşüşler hakkında bilgi edinmeyi sağlar. Eğer grafikte değişkenler arasında herhangi bir ilişki görülmüyorsa lineer regresyon uygulanması yanlış olabilir.

Korelasyon Katsayısı -1 ile 1 arasında değerleri ile iki değişken arasındaki ilişkinin kuvvetini gösterir.

Pozitif Korelasyon — — — — — ← - →— — — — — — — Negatif Korelasyon

Lineer Regresyon’da Matematik

Lineer denklem Y=mX+c şeklindedir. X bağımsız(açıklayıcı) değişkeni, Y bağımlı değişkeni ve m c’nin kesişmesi olan çizginin eğimini temsil eder.

Ayrıca eğilim çizgisi tahmin yapmayı sağlayan bir yol izler, eğilim çizgileri eğitim veri kümesi yardımıyla deneye uyan modeller kullanılarak çizilir. Lineer regresyon’da kullanılan model:

Denklemde y tahmin etmeye çalıştığımız hedef kolonu, a’lar veri kümesindeki değerleri ve x’ler denemeyi seçtiğimiz değerlerdir.

Lojistik Regresyon

Binary değerli bir kolonu veya bağımlı değişkenleri belirlemek için bağımsız değişkenlerden oluşan büyük kümeden sonuçlar çıkarmaya çalıştığımız bir yöntemdir. Kısacası kategoriyi tahmin etmeye çalışmaktır. Örneğin:

  1. Bir işlemin başarılı mı yada başarısız mı olacağını
  2. Bebeğin kız mı erkek mi olacağını bilmek

Bağımlı Değişken: Tahmin edilen değerlerdir ve 0 ile 1 değerleri alır.

Bağımsız Değişken: Bağımlı değişkenin değerini etkilemesi gereken değişken.

Lojistik regresyonun kalbinde lojistik fonksiyon yatar. Ayrıca buna sigmoid fonksiyon da denir ve nüfus artışının özelliklerini açıklamak için istatistikçiler tarafından kullanılır. Grafik haline getirirsek bu şekilde görünür.

Lojistik Regresyon’da Matematik

İyi bir cebir ve olasılık bilgisi faydalı olacaktır. Sigmoid fonksiyonu;

y=1/1+e^-z

y tahmin edilen değer, e doğal logaritmanın tabanı yada Euler sayısı, z ise değiştirmek istediğimiz asıl değerdir.

Naive Bayes

Naive Bayes sınıflandırıcı Bayes teoremine dayalı bir algoritmalar topluluğudur. Tüm algoritmaların her sütun çiftinin veya test verilerinin birbirinden bağımsız kullanılmasına dair ortak bir hedefi vardır. Matematiksel olarak şu şekilde yazılabilir:

P(A|B) = P(B|A)P(A)/P(B)

P(B) sıfıra eşit değildir, P(A) ve P(B) A ve B olasılıklarını bağımsız olarak gözlemler. P(A|B) B’nin olduğu durumlarda A’nın olma durumudur. P(B|A) A’nın olduğu durumlarda B’nin olma durumudur.

Naive Bayes modelinin geliştirilmesi kolaydır ve büyük veri kümeleri için yararlıdır. Çok karmaşık sınıflandırma yöntemlerini bile geçebileceği kabul edilmektedir.

Sinir Ağları

İnsan beynini model alarak geliştirilen bir makine öğrenmesi yöntemidir. Sıklıkla Yapay Sinir Ağları yada kısaca YSA olarak karşımıza çıkar. Nöronların bir kombinasyonuna sahiptir. Bu yapı bir nöronun çıktısını diğerinin girdisi olacak şekilde ayarlayarak uygulanabilir.

Büyük Sinir Ağı, büyük karmaşıklık getirir. Etrafımız sinir ağları uygulamaları ile dolu olduğu çok açı ve henüz potansiyelini fark etmedik. Yüz algılama, Derin Öğrenme(Deep Learning) gibi uygulamalar sinir ağları ile ilgilidir.

Tipik YSA farklı katmanlardan oluşur. Her katman belirli nöron kümesine sahiptir. Ağırlıklar(Weights), Gizli katmanlar(Hidden layers), Giriş ve Çıkış katmanları gibi farklı katmanlar mevcuttur.

K-Ortalama Kümeleme(K-Mean Clustering)

Adından da anlaşılacağı gibi, farklı gruplardan oluşan büyük verileri kümelemek için kullanılan bir tekniktir. Bu kümeler benzerlikler tanımlanarak oluşturulur.

Basit ve etkili bir gözetimsiz(unsupervised) makine öğrenmesi tekniğidir.

Bir küme benzerlikleri göz önünde bulundurularak oluşturulmuş bir veri topluluğu olarak açıklanabilir.

K-Ortalama’nın arkasındaki slogan oldukça basittir, benzer olanları bir araya getir ve aralarında kalıp bulmaya çalış. K-Ortalama veri kümesi içinde belirli sayıda küme arar.

Her kümenin kümenin ortasında bulunan bir ağırlık merkezi vardır ve diğer her veri noktası ağırlık merkezini olabildiğince küçük tutmak için merkeze olabildiğince yaklaşır.

Temelde çok basit bir matematik kullanır ve sadece iki nokta arasındaki uzaklığı bulmaya yarayan formülü(Öklid Metriği) bilmemiz yeterlidir.

Karar Ağacı

Bu yöntem en basit ve etkili gözetimli(supervised) öğrenme tekniğidir ve yaygın olarak kullanılır. Kararlar genelde if - else yapısında verilir.

Son cevap en üstten en alta doğru ilerleyen OR,NOR,XOR,AND gibi kapılar kullanılarak belirlenir. Her bir düğüm iki dala ayrılır ve kararlar binary olarak verilir.

Yukarıdaki karar ağaçlarında ağacın en üstten başlayıp en altta bittiğini görebilirsiniz. Yani en üstteki düğüm köktür ve her düğümde iki dala ayrılır. Ayrılmamış düğümler nihai sonucu gösterir.

Böylece Kolla Leela Kishan yazmış olduğu “Much Needed Mathematics for Machine Learning Algorithms” yazısını çevirdik ve makine öğrenmesi için gerekli matematik üzerinde durduk.

Faydalı olması dileğiyle. Başarılar.

--

--