Teknoloji

Yapay zeka kullanıcılara “dalkavukluk” yapıyor!

Gerçekte varmış üzere görünen fakat var olmayan algısal yanılsamalar halüsinasyon olarak biliniyor.

ChatGPT, DeepSeek ve Gemini üzere büyük lisan modellerinin (LLM), kullanıcılara kusurlu, çarpık yahut temelsiz çıktılar sunması, akıllara “Yapay zeka halüsinasyon görebilir mi?” sorusunu getiriyor.

  • Öğrenme, sorun çözme ve karar verme üzere insan zekasına mahsus kimi fonksiyonları yerine getirebilen yapay zeka, şuur yetisine sahip olmasa da bir insan üzere “halüsinasyon görebiliyor.”
     
  • Daima “tarafsız ve doğru” bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve kusurlu bilgileri “gerçekte varmış gibi” üretmesi, güvenilirliğine ve şeffaflığına ait telaşları bir kere daha gün yüzüne çıkarıyor.
     
  • Yapay zeka dayanaklı sohbet robotlarının, girilen komuttaki bağlama uygun akıcı cevaplar sunması yapay zekanın “yanılmaz” olduğu algısı yaratsa da bir insan üzere “halüsinasyon görmesi” önemli sonuçlara sebebiyet verebiliyor.
     

Uzmanlara nazaran, yapay zekanın girilen komutlara uygun karşılık üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her biçimde fayda sağlamayı amaçlamasından kaynaklanıyor.

Rochester Üniversitesi Bilgisayar Bilimleri Kısmından Profesör Ehsan Hoque “yapay zekada halüsinasyon” kavramına, Washington Üniversitesi Dilbilimi Kısmından Profesör Emily Bender de yapay zeka dayanaklı sohbet robotlarının güvenilirliğine ait AA muhabirine açıklamalarda bulundu.

YAPAY ZEKA KULLANICILARA “DALKAVUKLUK” YAPIYOR

Profesör Hoque, yapay zekanın tabiatı gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş üzere görünmek için halüsinasyon görüyor.” dedi.

Hoque, girilen komutlara uygun karşılıklar vermeyi hedefleyen yapay zekanın, kullanıcılara her biçimde fayda sağlamayı amaçladığı için bir nevi “dalkavukluk” yaptığını söyledi.

Yapay zeka modellerinin gerçekleri doğrulayarak değil, potansiyel söz kalıplarını kestirim ederek bir metin oluşturduğuna işaret eden Hoque, bilgilerin eksik ya da muğlak olması durumunda yapay zekanın akıcı lakin yanlış bir metin üretebileceğini kaydetti.

Hoque, halüsinasyonların kasıtlı meydana gelmediğini fakat üretildiği ülkeye nazaran bedel bazlı kimi yargıların “bilerek sisteme kodlanabileceğini” aktararak, mevcut teknolojilerin halüsinasyon sıkıntısını kökünden çözecek bir kapasitesinin şimdi olmadığını belirtti.

YAPAY ZEKA, NÖROPSİKİYATRİK BİR HASTALIĞA BENZİYOR

Uzmanlar, yapay zekanın var olmayan bir bilgiyi karşı tarafa “doğruymuş gibi” yansıtmasını, nöropsikiyatrik bir hastalık olan “konfabulasyon” (masallama) rahatsızlığına da benzetiyor.

Gerçek dışı yahut hayali bir olayı ya da anıyı istemsiz ve akıcı bir formda “masal gibi” anlatma manasına gelen konfabulasyon, komutlara uygun karşılık vermeyi hedefleyen sohbet robotlarının yanlış yahut gerçek dışı bilgileri akıcı bir lisanla ürettiği durumlarda gözlemlenebiliyor.

Konfabulasyon ile çaba eden hastalarda aslında uydurulmuş olayların ve anıların akıcı bir lisanla karşı aktarılması birinci başta karşı tarafa “gerçekmiş” üzere yansısa da anlatılan durumların temelinde var olamayan ya da çarpık bilgilerden oluştuğu dikkati çekiyor.

Bu durumun bilhassa kasıtlı olarak yapılmadığına işaret eden uzmanlar, yapay zekanın “halüsinasyon görmesini” bu hastalığa benzetiyor.

Yapay zekanın mahkeme evrakları ya da tıbbi kayıtlar üzere resmi evraklarda kullanılması ihtimali göz önünde bulundurulduğunda bu durumun önemli sonuçlar doğurabileceğine işaret ediliyor.

YAPAY ZEKAYA “MUTLAK İTİMAT DUYULMAMALI”

Yapay zeka dayanaklı sohbet robotlarının güvenilirliğine değinen Washington Üniversitesi Dilbilimi Kısmı Profesörü Bender, yapay zekaya bu kadar çok itimat beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek “otomasyon önyargısı” kavramına işaret etti.

Bender, “Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon sorununu tahlile kavuşturmuyor.” değerlendirmesinde bulunarak “bu sistemlere mutlak inanç duyulmaması” gerektiğinin de altını çizdi.

Kişilerin otomatik bir sistemden gelen bir bilgiye yanılgı oranına bakılmaksızın “aşırı itimat duyma eğilimi göstermesi” manasına gelen bu terim, yapay zeka dayanaklı sohbet robotlarının ürettiği çıktıların “hatasız” olduğu algısıyla örtüşüyor.

KAYNAK: AA

İlgili Makaleler

Başa dön tuşu