• Birinci navigasyona geç
  • Skip to main content

Gaffar Yakınca

  • Makaleler
  • Yapay Zeka
  • Köşe Yazıları
  • Edebiyat
  • Röportajlar
  • Essays On Art
  • Gaffar Yakınca kimdir?

Öğrenen makineye nasıl vardık?

“Düşünen makine” hedefine ulaşmak için hafıza ve algoritmanın ötesine geçmek, insan beyni gibi davranan bir sistem tasarlamak gerekiyordu. Beyni taklit etmek için geliştirilen en başarılı model, yapay sinir ağları (YSA) oldu. YSA, biyolojik sinir hücrelerinin ve onlar arasındaki sinaptik bağlantıların elektronik/dijital olarak modellenmesi idi.

YSA tasarımı ile birbirine bağlanmış dijital düğümler (nodlar), insanınkine benzer bir öğrenmeyi mümkün kıldı. Zaten bunun devamında da “makine öğrenmesi” (ML) konsepti geldi. Bu sistemler, çeşitli istatistik algoritmalar yardımı ile makinelerin ham veriden bilgi edinmesini ve kestirimler yapmasını sağladılar. Bu, istatistik metodlar ile sınırlanmış bir alanda kalsa da,  makinenin insan beyni gibi öğrenip, değerlendirme yapabilmesi anlamına geliyordu.

21. Yüzyılın yapay zeka çalışmalarına en büyük armağanı “büyük veri” oldu. Yaygınlaşan bilgi işlem ve iletişim sistemleri sayesinde dünyada hiç olmadığı kadar büyük miktarda veri oluştu. Finansal veriler, kişisel veriler, doğa olaylarına ait veriler, kurumlara ait veriler…  Akıl almaz bir hızla çoğalıyor ve kayıt altına alınıyordu. İnsan beyni gibi “veriden öğrenmek üzere” tasarlanan makineler için gün doğmuştu.

Bu dönemde çıkan bir ML yöntemi olan derin öğrenme (DL), diğer metodları saf dışı bıraktı. DL, çok katmanlı bir yapay sinir ağına dayanıyordu ve örüntüleri -yani sürekli tekrar eden şekilleri- tanımlayarak çalışıyordu. Parmak izi, fotoğraf, yazı veya konuşma… Her veriyi bu şekilde inceleyip öğrenmeyi başarıyordu.

Ancak sistemin doğru çalışabilmesi için verinin onun anlayacağı hale sokulması gerekti. Bu noktada Google’ın geliştirdiği “dönüştürücü” yapısı imdada yetişti. Bu, yazılımsal anlamda ‘çok başlı dikkat mekanizmasına’ dayanan bir DL mimarisiydi. Sözcükleri, söz öbeklerini ve anlamlı cümleleri dijital işaretler yolu ile simgeleştirip başarılı bir şekilde sayısal veriye dönüştürebiliyordu. Jeton (token) adı verilen bu dijital simgeler, bir kelime yerleştirme tablosunun yardımı ile vektörlere dönüştürülebiliyordu.

Bu sistem “makinenin ham veriden, yani sadece kendisine verilen metni kullanarak dil öğrenebilmesi” anlamına geliyordu. Bu sayede makine, dili anlamakla kalmıyor sorulan sorulara yanıt üretiyor, bir sonraki cümleyi tahmin ediyor, yorumlama ve duygu analizi yapabiliyordu. 

Böylelikle, bugünkü yapay zekanın merkezindeki bir olgunun, “büyük dil modellerinin” (LLM) geliştirilmesi mümkün oldu. LLM, “insan düşüncesinin hammaddesi” olarak niteleyebileceğimiz dili üretebilen ve dil işleme becerilerini aynen beyin gibi geliştirebilen bir model. Yapay sinir ağları ve dönüştürücü mimarisi sayesinde yüklü miktarda metinden kedi başına dil öğrenebiliyor veya yeni bir dil geliştirebiliyor.

Henüz bir buçuk yıllık mazisi olan ChatGPT de aslında bir LLM. Ayırt edici özelliği ise bir sohbet robotu olarak tasarlanmış olması. Kendisine sorulan soruları veya verilen komutları kodlayarak insan beyni gibi öğrenebiliyor.

Devam edeceğiz…


Twitter : @GaffarYakinca
Facebook : 
Gaffar Yakınca
Instagram :  Gaffar.Yakinca
YouTube: Gaffar Yakınca

Bunlar da ilginizi çekebilir:

Batının sahte güneşi artık insanlığı ısıtmıyor
What is the meaning of sin if it is possible to clean in one hour?
Yaşam tarzı faşizmi

Temmuz 20, 2024

Okuyucu Etkileşimi

Bir yanıt yazın Yanıtı iptal et

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Discover more

Footer

© Copyright 2020 · Gaffar Yakınca · Her hakkı saklıdır

Gaffar Yakınca’yı takip Edin:

  • Facebook
  • Instagram
  • Twitter
  • İletişim
  • Yayın İlkeleri
  • Telif ve Alıntılama
  • Gizlilik Politikası
  • Deli Gaffar Hakkında