OpenAI’da halüsinasyon krizi: Yapay zekalar çok fazla düşünmeye başladı!

Yapay zeka sohbet robotları (chatbotlar) birinci ortaya çıktığından bu yana, aldatıcı bilgiler ya da “halüsinasyonlar” daima bir sorun olmuştur.
Her yeni modelde, bu halüsinasyonların azalması beklenmişti. Fakat, OpenAI’nin son bulguları, bunun bilakis, halüsinasyonların daha da arttığını gösteriyor.
Bir kamu figürleri testinde, GPT-o3, karşılıklarının yüzde 33’ünde yanlış bilgiler verdi; bu oran, evvelki model GPT-o1’in yanılgı oranının iki katı. Daha kompakt olan GPT o4-mini ise daha da makus bir performans sergileyerek %48 oranında aldatıcı bilgi üretti.
YAPAY ZEKA ÇOK MU DÜŞÜNÜYOR?
Önceki modeller, akıcı metinler üretmekte epeyce başarılıydı, lakin o3 ve o4-mini, insan mantığını taklit etmek hedefiyle adım adım düşünme programlamasıyla geliştirildi.
Ironik bir halde, bu yeni “düşünme” tekniği, sorunun kaynağı olabilir. Yapay zeka araştırmacıları, ne kadar fazla düşünme yaparsa, modelin yanlış yola sapma mümkünlüğünün o kadar arttığını belirtiyor.
Yüksek inançlı karşılıklara sahip eski sistemlerin bilakis, bu yeni modeller karmaşık kavramlar ortasında köprü kurmaya çalışırken yanlış ve tuhaf sonuçlara ulaşabiliyor.
DAHA GELİŞMİŞ YAPAY ZEKA MODELLERİ NEDEN DAHA AZ MUTEBER OLUYOR?
OpenAI, yapay zeka halüsinasyonlarındaki artışı, direkt düşünme biçimiyle değil, modellerin anlatımındaki söz bolluğu ve yürekle ilişkilendiriyor. Yapay zeka, yararlı ve kapsamlı olmaya çalışırken bazen varsayımlarda bulunuyor ve teoriyi gerçekle karıştırabiliyor. Sonuçlar son derece ikna edici olabiliyor, lakin büsbütün yanlış olabiliyor.
YAPAY ZEKA HALÜSİNASYONLARININ GERÇEK DÜNYA RİSKLERİ
Yapay zeka, tüzel, tıbbi, eğitim yahut devlet hizmetlerinde kullanıldığında büyük riskler taşıyor. Bir mahkeme dokümanında ya da tıbbi raporda aldatıcı bir bilgi, felakete yol açabilir.
Günümüzde ChatGPT nedeniyle avukatlar, uydurulmuş mahkeme alıntıları sağladıkları için yaptırımlara uğradılar. Pekala ya bir iş raporunda, okul ödevinde yahut devlet siyaseti evrakında yapılan küçük yanılgılar?
Yapay zeka ne kadar hayatımıza entegre olursa, yanılgı yapma mümkünlüğü o kadar azalır. Fakat paradoks şudur: Ne kadar yararlı olursa, yapacağı yanılgıların tehlikesi de o kadar büyür.