Yapay zeka sistemlerinin en büyük problemlerinden biri olan “halüsinasyon”, yani yanlış bilgileri büyük bir özgüvenle sunma sorunu için dikkat çekici bir çözüm geliştirildi. Güney Koreli araştırmacılar, yapay zeka modellerinin bilmediği konularda daha temkinli davranmasını sağlayabilecek yeni bir eğitim yöntemi üzerinde çalışıyor.
Bilim insanlarına göre geliştirilen yöntem, yapay zekanın yalnızca doğru cevap vermesini değil, aynı zamanda emin olmadığı durumları da fark edebilmesini hedefliyor.
Yapay zekanın “aşırı özgüven” sorunu büyüyor
Son yıllarda gelişmiş dil modellerinin yaygınlaşmasıyla birlikte yapay zekanın güvenilirliği de yoğun şekilde tartışılıyor. Özellikle sohbet tabanlı sistemler, yanlış bilgileri son derece ikna edici ve kendinden emin bir üslupla sunabiliyor.
Euronews’te yer alan bilgilere göre İspanyol araştırmacılar; OpenAI’ın ChatGPT modeli, Meta’nın Llama modeli ve BigScience tarafından geliştirilen BLOOM gibi sistemleri matematik, fen ve coğrafya alanlarında binlerce soruyla test etti.
Araştırma sonucunda yeni nesil modellerin, “bilmiyorum” demek yerine tahminde bulunmaya daha yatkın olduğu ortaya çıktı. Özellikle kolay sorularda bile zaman zaman yanlış yanıtlar üretebildikleri gözlemlendi.
Halüsinasyon riski gerçek dünyada sorun yaratıyor
Uzmanlara göre yapay zekanın yanlış bilgi üretmesi yalnızca teknik bir hata değil, aynı zamanda ciddi güvenlik riskleri doğurabiliyor.
Geçmişte bazı yapay zeka sistemlerinin kullanıcıları alkol, uyuşturucu ya da aşırı diyet programlarına yönlendirdiği örnekler gündeme gelmişti. ABD’de yaşanan bir başka olayda ise yapay zekanın önerisini uygulayan bir kişinin sodyum bromür tüketerek zehirlendiği aktarılmıştı.
Bu tür örnekler, yapay zekanın yanlış bilgi üretirken yüksek özgüven sergilemesinin ne kadar tehlikeli olabileceğini yeniden gündeme taşıdı.
Yeni yöntem: Önce “hiçbir şey bilmiyorum” eğitimi
Korea Advanced Institute of Science and Technology araştırmacıları tarafından geliştirilen yeni yöntemde, yapay sinir ağları gerçek verilerle eğitilmeden önce rastgele gürültü ve rastgele etiketlerle kısa süreli bir “ısınma eğitimi”nden geçiriliyor.
Bu süreç sayesinde modelin başlangıçtaki güven seviyesi bilinçli olarak düşük tutuluyor. Araştırmacılar, böylece yapay zekanın gerçek öğrenme aşamasına geçtiğinde belirsizlikleri daha doğru tanıyabildiğini belirtiyor.
İnsan beyninden ilham alındı
Araştırmanın dikkat çeken yönlerinden biri de biyolojik sistemlerden esinlenmesi oldu. Bilim insanları, insan beyninin doğum öncesi dönemde dış dünyadan veri almadan önce kendi iç sinyalleriyle gelişim göstermesinden ilham aldıklarını ifade ediyor.
Bu yaklaşımın yapay sinir ağlarına uyarlanmasıyla, modellerin öğrenme sürecine daha dengeli bir güven düzeyiyle başlaması hedefleniyor.
Büyük dil modellerinde etkisi henüz net değil
Çalışma, Artificial Intelligence alanında önemli bir gelişme olarak değerlendirilse de, yöntemin ChatGPT benzeri büyük ölçekli ticari modellerde ne kadar etkili olacağı henüz kesinlik kazanmış değil.
Araştırmacılar, yöntemin farklı yapay zeka sistemlerine uygulanabileceğini ancak özellikle büyük dil modellerinde daha kapsamlı testlere ihtiyaç duyulduğunu vurguluyor.
Güvenilir yapay zeka için kritik adım
Uzmanlara göre geleceğin yapay zeka sistemlerinde yalnızca doğru cevap üretmek yeterli olmayacak. Modellerin hangi konuda emin olmadığını anlayabilmesi de güvenilirlik açısından kritik önem taşıyor.
Yeni eğitim yaklaşımı, yapay zekanın “bildiği” ile “bilmediği” arasındaki farkı daha net ayırt etmesini sağlayarak, gerçek dünyada daha güvenli ve kontrollü kullanımın önünü açabilir.
kaynak ve görsel(kardeş haber):https://radarhabermedya.com/2026/05/12/yapay-zekada-yeni-donem-halusinasyon-sorununa-cozum-bulundu/
saat:17.00
