İnsan beyninin karmaşıklığı ve yapay zeka ile olan bağı: ANN, RNN, LSTM ve GRU

Muslum Yildiz
Academy Team
Published in
9 min readApr 1, 2023

Doğanın mükemmelliği, yüzyıllardır insanların ilham kaynağı olmuştur. Doğada bulunan organizmaların ve sistemlerin tasarımı ve işlevlerinin incelenerek, bu bilginin teknolojide kullanılması fikri, aslında binlerce yıl öncesine kadar uzanıyor. İnsanlar, geçmişte doğadan ilham alarak basit aletler ve yapılar yaparken son yüzyılda bilim ve teknolojinin gelişmesiyle birlikte, doğal sistemlerin incelenmesi ve bu bilginin teknolojiye aktarılması da hızlanmıştır. Bu nedenle bugün kullandığımız en büyük teknolojilerin birçoğunun doğadaki sistemlerden ilham aldığı şaşırtıcı değildir. İnsan vücut sistemi de robotik alanında ilerlemelere ilham vermiştir, insan hareketlerini ve etkileşimlerini taklit eden robotlar tasarlanmıştır.

Bilim adamları ve mühendislerin taklit etmeye çalıştığı en ilginç doğal sistemlerden biri insan beynidir. Beyin, yüzyıllardır araştırma ve keşif konusu olan gizemli ve karmaşık bir organdır. İnsan beyni milyarlarca nöron tarafından birbirine bağlı sinaps ağı aracılığıyla oluşur. Beynin büyük miktarda bilgiyi alması, depolaması, deneyimden öğrenmesi ve zor kararlar vermesi bu sofistike sinir ağından kaynaklanır.

Son yıllardaki yapay zeka alanındaki en ilginç keşiflerden biri sinir ağlarının keşfedilmesidir. Bir sinir ağı oluşturularak insan beyninin işlevi taklit edilebilir. Bu öğrenme tekniği, verilerin insan beyninde olduğu gibi birbirine bağlı düğümler veya nöronlar aracılığıyla işlenmesini sağlar. Derin öğrenme, günlük hayatta kullanılan yapay zekayı tamamen değiştirebilecek bir yöntemdir.

Yapay zeka normalde insan zekası gerektiren görevleri gerçekleştirebilen makineler yaratmayı amaçlayan bir bilgisayar bilimi alanıdır. Yapay zekanın bunu nasıl başardığı alanlardan biri insan beyninin yapısını ve işlevini taklit etmektir.

https://www.verywellmind.com/how-big-is-the-brain-2794888

İnsan beyni, tahmini olarak 86 milyar nöronla keşfedilmiş en karmaşık sistemlerden biridir. Nöronlar, sinir sisteminin temel yapı taşlarıdır ve vücudun tüm fonksiyonlarını kontrol etmek ve koordine etmekten sorumludurlar. Bu nöronlar, özel bağlantılar aracılığıyla birbirleriyle iletişim kurarlar ve bilgiyi vücuda yaymak ve iletmek için izin veren sinapslar olarak adlandırılan şeylerdir. İnsan beynindeki nöron sayısı gerçekten de şaşırtıcıdır ve bu, beynimizi bilişsel ve yaratıcı açıdan olağanüstü başarılar sergileyebilen bir organ yapar. İnsan beyni hakkındaki ileri anlayışımıza rağmen, bu dikkate değer organ ve birçok sırrı hakkında henüz keşfedilmesi gereken çok şey var.

İnsan beyninin ortalama gücü yaklaşık 20 watt (W) olarak tahmin edilmektedir. Google’ın 2018 yapay sinir ağı projesi, insan beyninin bir saniyelik faaliyetini simüle etmeyi amaçladı. Proje, 1.6 milyon işlemci çekirdeğine sahip dünyanın en büyük süper bilgisayarı Summit kullanılarak gerçekleştirildi. Proje, insan beynindeki nöronlar arasındaki etkileşimleri taklit etmeyi amaçladı ve 1,73 milyon sinir hücresi ve 10,4 trilyon sinaptik bağlantıya sahip bir yapay sinir ağı tasarladı. Google’ın projesi insan beyninin bir saniyelik faaliyetini başarıyla simüle etti, ancak bu sadece küçük bir bölümüydü ve insan beyninin tam bir simülasyonu için çok daha büyük bir yapı gerekiyor. Bu proje, yapay zeka ve beyin araştırmaları için önemli bir adım olarak görülüyor, çünkü benzer simülasyonlar nöral ağlar üzerine yapılan diğer araştırmalar ve nörolojik hastalıkların tedavisinde kullanılabilir.

Yapay zeka’nın yapı taşları olan nöral ağlar, insan beyninin yapısına benzer şekilde modellenirler. Derin öğrenme adı verilen bir tür makine öğrenme sürecidir ve katmanlı bir yapıya sahip, birbirine bağlı düğümler veya nöronlar kullanır. Bu ağlar, yapay nöronların katmanlar halinde birbirine bağlandığı bir sistemden oluşur. Beyindeki nöronlar gibi, bu yapay nöronlar diğer nöronlardan bilgi alıp işleyebilir ve ağın bir sonraki katmanına iletebilir.

Nöral ağlarda veri giriş katmanına beslenir, bu katmandaki ilk set nöronlar tarafından işlenir. Bu katmanın çıktısı daha sonra bir sonraki nöron katmanına geçirilir ve orada daha fazla işlenir. Bu işlem, istenen sonucu üreten son çıktı katmanına ulaşılana kadar devam eder. Nöronlar arasındaki bağlantıların ağırlığına göre değişiklik gösterir ve bu da ağın işlediği verilerden öğrenmesine izin verir.

Nöral ağlar ayrıca deneyimden öğrenme için tasarlanmıştır. Bu, ağın aldığı geri bildirimlere dayanarak nöronlar arasındaki bağlantıların ağırlıklarının ayarlanmasıyla gerçekleştirilir. Zamanla, ağ kalıpları tanımlama ve tahmin yapma konusunda daha iyi hale gelir, insan beyninin deneyimlerden adapte olup öğrenme şekline benzer.

Sinir ağlarının deneyimden öğrenebilme kabiliyetleri, en önemli avantajlarından biridir. Bu sayede, nöronlar arasındaki bağlantılar, ağın geribildirimine yanıt olarak değişebilir. Daha fazla veri işlendiğinde, ağ desenleri tespit etme ve tahmin yapma konusunda daha güçlü hale gelir. Konuşma ve resim tanıma gibi çok veriden öğrenme gerektiren işler için sinir ağları sıklıkla kullanılır.

Karmaşık ve doğrusal olmayan değişkenler arasındaki etkileşimleri yönetebilme yeteneği, sinir ağlarının diğer bir faydasıdır. Bu sayede, bu ilişkiler sisteme açıkça tanımlanmamış olsa bile, ağ onları simüle etmeyi öğrenebilir. Bir hisse senedinin fiyatını etkileyen çok sayıda değişken olduğundan, sinir ağları, hisse senedi değerlerini tahmin etme gibi işlerde çok yardımcıdır.

Sinir ağlarının birçok avantajı olmasına rağmen, bazı dezavantajları da vardır. Sinir ağlarının temel sorunlarından biri, hesaplama eğitiminin maliyetli olabilmesidir. Bu, ağın çok sayıda bilgiyi analiz etmesi ve nöronlar arasındaki bağlantıların ağırlıklarını değiştirmesi gerektiği için olur. Başka bir zorluk ise, sinir ağlarını anlamanın karmaşıklığıdır. Ağ, çıktısına nasıl ulaştığını açıkça belirtmediği için bu zorluğu yaratır. Sinir ağları ve potansiyel olarak sağlayabilecekleri birçok uygulama, hala aşılması gereken birçok zorluk olsa da parlak bir geleceğe sahiptir.

Sinir ağları ve insan beyni nöronları arasındaki benzerlikler çoktur ve bu da sinir ağlarını yapay zeka alanında güçlü kılar. İşte temel benzerliklerinden bazıları:

Bağlantılı düğümler: İnsan beyni gibi, sinir ağları da birbirine bağlı düğümlerden veya nöronlardan oluşur. Bu düğümler, verileri işlemek ve analiz etmek için ağırlıklı bağlantıların bir ağı üzerinden bağlıdır.

Nöron katmanları: Hem sinir ağlarında hem de insan beyninde, nöronlar katmanlara ayrılmıştır. Bu katmanlar bilgiyi sıralı olarak işler ve her katman önceki katmanın çıktısına dayanarak bilgiyi işler.

Deneyimden öğrenme: Sinir ağları insan beyni gibi deneyimden öğrenmek için tasarlanmıştır. Bu, ağın aldığı geri bildirimlere dayanarak nöronlar arasındaki bağlantıların ağırlıklarını ayarlayabileceği anlamına gelir. Zamanla, ağ kalıpları tanımlama ve tahminlerde bulunma konusunda daha iyi hale gelir.

Doğrusal olmayan ilişkiler: Sinir ağları ve insan beyni, değişkenler arasındaki karmaşık ve doğrusal olmayan ilişkileri modelleyebilir. Bu, ağın bu ilişkileri modellemeyi öğrenebilmesi anlamına gelir, hatta bu ilişkiler sisteme açıkça programlanmamış olsa bile.

Aktivasyon fonksiyonları: Hem sinir ağlarında hem de insan beyninde nöronlar, çıktılarını belirlemek için bir aktivasyon fonksiyonu kullanır. Bu aktivasyon fonksiyonu, nörona giren sinyallerin toplamını alır ve bu toplama göre bir çıktı üretir.

Hata düzeltme: Bir sinir ağı hata yaptığında, nöronlar arasındaki bağlantıların ağırlıklarını ayarlamak için hata düzeltme adı verilen bir süreç kullanır. Bu, insan beyninin hatalardan öğrenerek davranışını ayarlamasıyla benzerdir.

Genel olarak, sinir ağları ile insan beyni nöronları arasındaki benzerlikler, sinir ağlarını yapay zeka alanında güçlü kılan şeydir. İnsan beyninin bilgi işleme şeklini taklit ederek, sinir ağları deneyimlerden öğrenir, karmaşık ilişkileri modelleyebilir ve yüksek doğruluk derecesiyle tahminler yapabilirler. Teknoloji geliştikçe, muhtemelen sağlık, finans ve robotik gibi alanlarda sinir ağlarının daha fazla uygulamasını göreceğiz.

Şimdi insan beynini simüle etmeye çalışan İnsan Beyin Projesi’nden bahsetme zamanı geldi.

İnsan Beyin Projesi (Human Brain Project):

Son yıllarda bilim insanları ve araştırmacılar, insan beynini bir bilgisayar üzerinde simüle etmeyi hedefleyen bir proje üzerinde çalışmaktadır. Beynin gizemli yapısını çözmek için birçok çalışma yürütülmekte olup, en dikkat çekenlerinden biri İnsan Beyin Projesi’dir. Bu proje, dünyanın dört bir yanından bilim insanları, mühendisler ve bilgisayar uzmanlarını içeren geniş çaplı bir işbirliği çabasıdır. Bu proje, insan vücudundaki en karmaşık ve ilginç organlardan birini anlama yolculuğumuzda önemli bir adım olarak görülmektedir.

Bu hedefe ulaşmak için araştırmacılar, gelişmiş bilgisayar simülasyonları ve son teknoloji görüntüleme teknikleri kullanarak insan beyninin yapısını ve işleyişini haritalandırmak için çalışmaktadırlar. Ayrıca, nöronların ve sinir ağlarının karmaşık davranışlarını simüle etmeye yardımcı olabilecek yeni bilgisayar algoritmaları ve yazılım araçları geliştirmeye çalışmaktadırlar.

İnsan Beyin Projesi, insan beyninin nasıl çalıştığını daha iyi anlamak, beyinle ilgili hastalıklar için yeni tedaviler geliştirmek ve hatta daha gelişmiş yapay zeka sistemleri oluşturmak için kullanılabilecek ayrıntılı bir dijital model oluşturmayı amaçlamaktadır. İnsan Beyin Projesi, beyin-makine arayüzleri gibi yeni nöroteknolojiler geliştirmeye de odaklanmaktadır. Bu teknolojiler, Parkinson, epilepsi ve depresyon gibi durumlardan muzdarip dünya genelinde milyonlarca insanın yaşam kalitesini artırmak için kullanılabilecek potansiyele sahiptir.

Şimdi size, derin öğrenme alanında sıkça duyacağınız RNN, LSTM ve GRU hakkında bahsetmek istiyorum.

RNN, LSTM ve GRU:

Yapay Sinir Ağları (YSAs), çeşitli görevler için yaygın olarak kullanılmaktadır, ancak sıralı verilerle uğraşırken önceki girdileri unutma sorunu önemli bir sorundur. Rekürrent Sinir Ağları (RNN’ler), Uzun Kısa Süreli Bellek (LSTM) ağları ve Geçitli Tekrarlayan Birim (GRU) bu sorunu ele almak için geliştirilmiştir. RNN’ler, önceki girdilerin “belleğini” oluşturmak için bir döngü yapısı kullanarak sıralı verileri işlerken, LSTM’ler ve GRU’lar seçici olarak bilgiyi unutma veya hatırlama işlevi olan “bellek hücresi” adlı ek bir mekanizmaya sahiptir.

RNN’ler, LSTM’ler ve GRU’lar, sıralı verileri etkili bir şekilde işleyebildikleri ve önceki girdilerden önemli bilgileri hatırlayabildikleri için doğru şekilde kullanıldıklarında doğal dil işleme, konuşma tanıma ve daha fazlası gibi çeşitli alanlarda faydalıdır.

RNN’ler ve LSTM ağları, sıralı verileri işlemek için tasarlanmış iki popüler yapay sinir ağı türüdür. Bu ağları diğer yapay sinir ağı türlerinden ayıran şey, geçmiş bilgiyi hatırlama ve gelecekteki girdilerle ilgili tahminler veya sınıflandırmalar yapmak için kullanabilme yetenekleridir. Bu, insan beynindeki nöronların çalışma şekline benzer ve RNN’ler ve LSTM’lerin diğer yapay sinir ağı türlerine kıyasla nöronlara daha benzer olmasına neden olur.

RNN’lerin önemli özelliklerinden biri, değişken uzunluktaki dizileri işleyebilme yetenekleridir. Doğal dil işleme veya konuşma tanıma gibi girdilerin sabit olmadığı birçok uygulama için önemlidir. RNN’lerin temel fikri, her zaman adımda güncellenen bir gizli durum kullanmaktır ve bu durum ağı geçmiş girdiler hakkında bilgilendirir. Gizli durum, ağın belleği gibi çalışarak, geçmiş bilgileri takip etmesine ve gelecekteki girdilerle ilgili tahminler yapmasına izin verir.

LSTM’ler, bu fikri daha da ileri götürerek daha uzun zaman aralıklarında bilgi depolayabilen daha karmaşık bir bellek hücresi tanıtır. LSTMLer, konuşma tanıma veya makine çevirisi gibi uzun vadeli bağımlılıkların önemli olduğu uygulamalarda özellikle etkilidir. Bir LSTM’deki bellek hücresi, girdiye ve ağın mevcut durumuna bağlı olarak seçici olarak okunabilir, yazılabilir veya silinebilir şekilde tasarlanmıştır. Bu, LSTM’nin seçici olarak bilgiyi hatırlamasına veya unutmasına izin verir ve birçok gerçek dünya uygulaması için hayati bir özelliktir.

RNN’lerin ve LSTM’lerin geçmiş bilgiyi hatırlama ve gelecekteki girdiler hakkında tahminlerde bulunmak için kullanma yeteneği, insan beynindeki nöronların çalışma şekline benzer. Beyindeki nöronlar, uzun zaman aralıklarında bilgi depolama ve işleme kapasitesine sahip karmaşık ağlar oluşturur. Geçmiş bilgileri hatırlama yeteneği, insan zekasının önemli bir özelliği olarak düşünülmektedir ve bu, RNN’lerin ve LSTM’lerin diğer türlerden daha çok beynin nöronlarına benzediği nedenlerden biridir.

Diğer RNN’ler gibi, GRU’lar (Gated Recurrent Unit) da cümle veya zaman serisi gibi sıralı veri girdilerini işlemek için tasarlanmıştır. Ancak, geleneksel RNN’lerin aksine, GRU’lar her zaman adımında bilgiyi seçici olarak güncellemek ve unutmak için kapı mekanizmaları kullanır, ağın önemli bilgileri seçici bir şekilde saklamasına ve gereksiz bilgileri atmasına olanak tanır.

Sonuç olarak, RNN’ler, LSTM’ler ve GRU’lar, geçmiş bilgiyi hatırlama ve gelecekteki girdiler hakkında tahminler veya sınıflandırmalar yapma yeteneği nedeniyle insan beynindeki nöronlara daha çok benzerler. Bu, doğal dil işleme, konuşma tanıma ve makine çevirisi gibi birçok gerçek dünya uygulaması için uygun hale getirir. Yapay sinir ağları alanındaki araştırmalar ilerledikçe, RNN’ler, LSTM’ler ve GRU’lar karmaşık ardışık verileri işleyebilen zeki sistemlerin geliştirilmesinde önemli bir rol oynamaya devam edeceklerdir.

https://engineering.giphy.com/part-2-computer-vision-giphy-how-we-created-an-autotagging-model-using-deep-learning/

Bu yazıda, insan beynini taklit etmeye çalışan yapay sinir ağları arasındaki gizemli ilişkiden bahsettik ve daha sonra unutma sorunuyla ortaya çıkan RNN, LSTM ve GRU’ya değindik. Yakında Deep Learning, NLP ve Bilgisayarlı Görü (Computer Vision) yazılarımla karşınızda olacağım.

Kaynaklar:
Martins, N. R., Angelica, A., Chakravarthy, K., Svidinenko, Y., Boehm, F. J., Opris, I., … & Freitas Jr, R. A. (2019). Human brain/cloud interface. Frontiers in neuroscience, 112.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436–444.Kelleher, J. D. (2019). Deep learning. MIT press.

Kelleher, J. D. (2019). Deep learning. MIT press.

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
Sherstinsky, A. (2020). Fundamentals of recurrent neural network (RNN) and long short-term memory (LSTM) network. Physica D: Nonlinear Phenomena, 404, 132306.

--

--