Yapay zeka ‘Bilmiyorum’ demeyi öğrendi
Yapay zekanın en büyük çıkmazlarından biri olan “bilmediği halde biliyormuş gibi yapma” (halüsinasyon) sorunu, bilim dünyasında önemli bir dönüm noktasına ulaştı. Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) tarafından yürütülen çalışma, yapay zekanın “cehaletini kabul etmesini” sağlayarak tıp ve otonom sürüş gibi kritik alanlarda güvenilirliği artırmayı vaat ediyor.
“AŞIRI ÖZGÜVEN” SORUNU NASIL ÇÖZÜLDÜ?
Independent Türkçe’nin haberine göre; mevcut yapay zeka modelleri, özellikle eğitim süreçlerinin başında maruz kaldıkları verilerdeki küçük hataları büyüterek, bilmedikleri konularda bile yüksek özgüvenle yanlış cevaplar verme eğilimi gösteriyordu. Araştırmacılar, bu durumun temelinde sinir ağlarının öğrenme biçiminin yattığını tespit etti.
KAIST ekibi, bu sorunu çözmek için insan beyninin doğum öncesi gelişiminden ilham aldı. İnsan beyni, dış dünyadan bir uyarı almadan önce bile sinyaller üretmeye başlar. Bilim insanları bu süreci taklit ederek, yapay zeka modeline gerçek verileri öğretmeden önce “rastgele gürültü” girdileriyle kısa bir ön eğitim (ısınma süreci) uyguladı.
“HENÜZ HİÇBİR ŞEY BİLMİYORUM” AŞAMASI
Bu “ısınma süreci” sayesinde yapay zeka modeli, veri öğrenmeye başlamadan önce kendi belirsizliğini dengelemeyi öğreniyor. Model, sürece en başından “Henüz hiçbir şey bilmiyorum” temelini atarak başlıyor. Böylece, eğitim sırasında karşılaşmadığı bir veriyle karşılaştığında, uydurma bir cevap vermek yerine özgüvenini düşürerek “bilmiyorum” diyebilme yeteneği kazanıyor.
YAPAY ZEKA ARTIK DAHA “İNSANSI” BİR FARKINDALIĞA SAHİP
Nature Machine Intelligence dergisinde yayımlanan çalışmanın yazarlarından Se-Bum Paik, bu yöntemin önemini şu sözlerle vurguluyor:
“Bu çalışma, beyin gelişiminin temel ilkelerini birleştirerek, yapay zekanın kendi bilgi durumunu insanlara daha benzer bir şekilde tanıyabileceğini gösteriyor.”
NEDEN ÖNEMLİ?
Özellikle tıbbi teşhislerde yapay zekanın tahminde bulunması hayati riskler taşıyabiliyor. Yeni yöntemle birlikte:
Güvenilirlik Artacak: Yapay zeka ne zaman kararsız olduğunu veya yanılmış olabileceğini anlayacak.
Halüsinasyonlar Azalacak: Bilgi uydurmak yerine belirsizliği kabul edecek.
Kritik Kararlar Daha Güvenli: Otonom araçlar ve sağlık sektörü gibi hata payı olmayan alanlarda daha tutarlı sonuçlar elde edilecek.
Bu buluş, yapay zekanın sadece doğru cevap verme kapasitesini değil, aynı zamanda kendi sınırlarını bilme yeteneğini (üstbiliş) geliştirerek dijital asistanları ve karar mekanizmalarını daha güvenli bir geleceğe taşıyacak gibi görünüyor.