“Düşünen makine” hedefine ulaşmak için hafıza ve algoritmanın ötesine geçmek, insan beyni gibi davranan bir sistem tasarlamak gerekiyordu. Beyni taklit etmek için geliştirilen en başarılı model, yapay sinir ağları (YSA) oldu. YSA, biyolojik sinir hücrelerinin ve onlar arasındaki sinaptik bağlantıların elektronik/dijital olarak modellenmesi idi.
YSA tasarımı ile birbirine bağlanmış dijital düğümler (nodlar), insanınkine benzer bir öğrenmeyi mümkün kıldı. Zaten bunun devamında da “makine öğrenmesi” (ML) konsepti geldi. Bu sistemler, çeşitli istatistik algoritmalar yardımı ile makinelerin ham veriden bilgi edinmesini ve kestirimler yapmasını sağladılar. Bu, istatistik metodlar ile sınırlanmış bir alanda kalsa da, makinenin insan beyni gibi öğrenip, değerlendirme yapabilmesi anlamına geliyordu.
21. Yüzyılın yapay zeka çalışmalarına en büyük armağanı “büyük veri” oldu. Yaygınlaşan bilgi işlem ve iletişim sistemleri sayesinde dünyada hiç olmadığı kadar büyük miktarda veri oluştu. Finansal veriler, kişisel veriler, doğa olaylarına ait veriler, kurumlara ait veriler… Akıl almaz bir hızla çoğalıyor ve kayıt altına alınıyordu. İnsan beyni gibi “veriden öğrenmek üzere” tasarlanan makineler için gün doğmuştu.
Bu dönemde çıkan bir ML yöntemi olan derin öğrenme (DL), diğer metodları saf dışı bıraktı. DL, çok katmanlı bir yapay sinir ağına dayanıyordu ve örüntüleri -yani sürekli tekrar eden şekilleri- tanımlayarak çalışıyordu. Parmak izi, fotoğraf, yazı veya konuşma… Her veriyi bu şekilde inceleyip öğrenmeyi başarıyordu.
Ancak sistemin doğru çalışabilmesi için verinin onun anlayacağı hale sokulması gerekti. Bu noktada Google’ın geliştirdiği “dönüştürücü” yapısı imdada yetişti. Bu, yazılımsal anlamda ‘çok başlı dikkat mekanizmasına’ dayanan bir DL mimarisiydi. Sözcükleri, söz öbeklerini ve anlamlı cümleleri dijital işaretler yolu ile simgeleştirip başarılı bir şekilde sayısal veriye dönüştürebiliyordu. Jeton (token) adı verilen bu dijital simgeler, bir kelime yerleştirme tablosunun yardımı ile vektörlere dönüştürülebiliyordu.
Bu sistem “makinenin ham veriden, yani sadece kendisine verilen metni kullanarak dil öğrenebilmesi” anlamına geliyordu. Bu sayede makine, dili anlamakla kalmıyor sorulan sorulara yanıt üretiyor, bir sonraki cümleyi tahmin ediyor, yorumlama ve duygu analizi yapabiliyordu.
Böylelikle, bugünkü yapay zekanın merkezindeki bir olgunun, “büyük dil modellerinin” (LLM) geliştirilmesi mümkün oldu. LLM, “insan düşüncesinin hammaddesi” olarak niteleyebileceğimiz dili üretebilen ve dil işleme becerilerini aynen beyin gibi geliştirebilen bir model. Yapay sinir ağları ve dönüştürücü mimarisi sayesinde yüklü miktarda metinden kedi başına dil öğrenebiliyor veya yeni bir dil geliştirebiliyor.
Henüz bir buçuk yıllık mazisi olan ChatGPT de aslında bir LLM. Ayırt edici özelliği ise bir sohbet robotu olarak tasarlanmış olması. Kendisine sorulan soruları veya verilen komutları kodlayarak insan beyni gibi öğrenebiliyor.
Devam edeceğiz…
Twitter : @GaffarYakinca
Facebook : Gaffar Yakınca
Instagram : Gaffar.Yakinca
YouTube: Gaffar Yakınca
Bir yanıt yazın