Yapay zekâların neden asla “Bilmiyorum” demediğini düşünmüş müydünüz? OpenAI araştırmacılarının yeni çalışmasına göre ChatGPT gibi modellerin “halüsinasyon” (yani uydurma bilgi üretme) eğilimi, aslında dürüst olmamaları için tasarlanmış olmalarından kaynaklanıyor. Modeller, doğru cevabı bilmediklerinde bile bir tahminde bulunmak üzere eğitiliyor. Esasında bu tıpkı, lise döneminde çoktan seçmeli bir sınavda boş bırakmak yerine rastgele işaretleme yaptığımız dönemlere benziyor.Araştırmacılar, bu durumun yapay zekânın eğitim sistemindeki yanlış “teşviklerden” kaynaklandığını söylüyor. Mevcut değerlendirme yöntemleri, modellerin belirsizliklerini dürüstçe ifade etmesi yerine kesin bir yanıt üretmesini istiyor. Bu da özellikle tıp veya hukuk gibi hassas alanlarda ciddi sorun. Uzmanlara göre çözüm, yapay zekâların “emin olmadığı” durumlarda cezalandırılmaması ve hatalı özgüven yerine belirsizlik belirtmelerinin teşvik edilmesi yönünde.Her cevapta "tahmin" yürütmek zorundalarYapay zekâ modelleri, metinlerdeki kelime örüntülerini tahmin ederek öğreniyor ancak veriler her zaman düzenli veya güvenilir değil. Yani veri seti ne kadar geniş olursa olsun bazı durumlarda bilgi eksikliği ve belirsizlik hâkim oluyor. Bu noktada modeller, “stratejik tahminler” yaparak yanıt üretmeye devam ediyor. Zamanla daha doğru sonuçlar üretseler bile çoğu zaman halüsinasyon görüyorlar, bu da o hatalı ve saçma yanıtların temel sebebi.Araştırmacılar, değerlendirme sistemlerinin doğruluk odaklı olmaktan çıkıp belirsizliğe de alan tanıması gerektiği konusunda hemfikirler. Böylece yapay zekâlar, “her şeyi bilen” tavırlarından sıyrılıp daha dürüst bir iletişim biçimine evrilecekler. Kim bilir, AGI dediğimiz o nokta belki de bunu başarıyla yapabildikleri noktadır... Bunu artık zaman gösterecek.