Yapay zekâ sistemlerinin en çok eleştirilen özelliklerinden biri, emin olmadıkları konularda bile kendinden emin bir dille yanlış bilgi üretmeleri. Son dönemde yapılan araştırmalar, ChatGPT ve benzeri büyük dil modellerinin “bilmiyorum” demek yerine uydurma eğilimi göstermesinin teknik ve psikolojik nedenlerini ortaya koydu.
Eğitim sistemi tahmine odaklı
Uzmanlara göre bu davranışın kökeninde, modellerin “bir sonraki kelimeyi tahmin etme” mantığı yatıyor. Yani sistem, konuşma sırasında belirsiz bir noktaya geldiğinde susmak yerine tahminde bulunuyor. Çünkü yapay zekâlar, eğitilirken olabildiğince akıcı ve kesintisiz metin üretmeleri için optimize ediliyor. Bu da, gerçekte yanlış olan bilgilerin bile dil akıcılığı nedeniyle “doğruymuş gibi” görünmesine neden oluyor.
İnsan beğenisi doğruluğun önüne geçiyor
Bir diğer etken ise “insan geri bildirimiyle takviyeli öğrenme” (RLHF) adı verilen süreç. ChatGPT gibi modeller, kullanıcıların beğendiği yanıtları ödüllendiren bir sistemle eğitiliyor. Ancak araştırmalara göre kullanıcılar, çoğu zaman kesin ve kendinden emin cümleleri, doğru olup olmadığını sorgulamadan “daha iyi yanıt” olarak değerlendiriyor. Bu da modelin, emin olmasa bile kararlı bir cevap vermeye yönelmesine neden oluyor.
Yapay zekâ etiği uzmanı Emily M. Bender, bu durumu “uyumlu yanılgı” olarak tanımlıyor. Bender’e göre, “Yapay zekâlar yanıldıklarında bunu ifade edebilselerdi, güvenilirlikleri artardı. Ancak sistemler, doğruluktan çok kullanıcı memnuniyetine göre şekilleniyor.”
Belirsizlik cezalandırılıyor
OpenAI ve Stanford Üniversitesi’nin yürüttüğü son çalışmalar, dil modellerinin belirsizlik bildiren ifadeler kullandığında puan kaybettiğini ortaya koydu. “Emin değilim” veya “buna dair yeterli veri yok” gibi ifadeler, sistemin değerlendirme algoritmasında düşük performans olarak algılanıyor. Bu durum, yapay zekâların “yanlış ama kesin” cevaplar vermesini ödüllendiren bir mekanizma oluşturuyor.
Dış kaynak desteği çözüm olabilir
Uzmanlara göre, bu sorunun en etkili çözümü dış bilgi tabanlarıyla bağlantılı üretim sistemleri. “Retrieval-Augmented Generation (RAG)” olarak bilinen bu yöntem, yapay zekânın yanıt vermeden önce güvenilir kaynaklardan bilgi çekmesini sağlıyor. Google DeepMind ve Meta’nın yürüttüğü testlerde, RAG sistemlerinin “uydurma” oranını yüzde 40’a kadar düşürdüğü raporlandı.
Belirsizlik eğitimi gündemde
Son dönemde OpenAI ve Anthropic gibi şirketler, yapay zekâlara “belirsizliği ifade etme eğitimi” vermek için yeni modeller geliştiriyor. Bu modeller, “emin değilim” gibi ifadeleri doğru durumlarda kullanabildiği için daha güvenilir yanıtlar üretiyor.
Yapay zekâ araştırmacısı Dr. Sam Bowman, “Sorun, modelin kasıtlı olarak yalan söylemesi değil; eğitim hedeflerinin, belirsizliği bastıracak şekilde tasarlanmış olması” diyor. Bowman’a göre yeni nesil modeller, “tahmin” yerine “kanıta dayalı açıklama” üretmeye yöneltilirse uydurma oranı büyük ölçüde azalacak.
ChatGPT’nin “bilmiyorum” demek yerine uydurmasının temel nedeni teknik altyapıdan geliyor. Eğitim algoritmaları, kullanıcı onayı ve performans testleri, modeli gerçeğe değil akıcılığa ödül verir hale getiriyor. Bilim insanlarına göre bu sorunun çözümü, yapay zekânın dürüstçe belirsizliği kabul etmeyi öğrenmesinden geçiyor.













