Güney Koreli bilim insanları, yapay zekanın “bilmediğini kabul etmesini” sağlayabilecek yeni bir eğitim yöntemi geliştirdi. Araştırmacılar, bu yaklaşımın yapay zekanın yanlış bilgi üretme yani “halüsinasyon” sorununu azaltabileceğini söylüyor.
Çalışma, Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) araştırmacıları tarafından yürütüldü. Bulgular, akademik dergi Nature Machine Intelligence’ta yayımlandı.
Uzmanlara göre yapay zekanın en büyük problemlerinden biri “aşırı özgüven.” Özellikle sağlık gibi kritik alanlarda kullanılan sistemler, emin olmadıkları konularda bile kesin cevaplar verebiliyor.
OpenAI’ın geliştirdiği ChatGPT gibi modellerin, bazen doğru olmayan bilgileri gerçekmiş gibi sunabildiği daha önce yapılan araştırmalarda ortaya konmuştu.
Bu durum teknoloji dünyasında “halüsinasyon” olarak adlandırılıyor.
Araştırmacılar, sorunu çözmek için insan beyninin çalışma biçiminden ilham aldı.
Bilim insanlarına göre insan beyni, doğumdan önce bile dış uyaran olmadan sinyaller üretebiliyor. Araştırma ekibi de benzer bir yaklaşımı yapay zekaya uyguladı.
Yeni yöntemde yapay zeka modeli, gerçek verilerle eğitilmeden önce rastgele “gürültü” verileriyle kısa bir ön eğitim sürecinden geçiriliyor.
Bu süreç sayesinde model, daha öğrenmeye başlamadan önce kendi belirsizliğini tanımayı öğreniyor.
Araştırmacılar, yöntemin yapay zekanın başlangıçtaki aşırı güvenini azaltarak “Henüz hiçbir şey bilmiyorum” durumunu öğrenmesini sağladığını belirtiyor.