Dünya

ChatGPT’den istediği tavsiye sonu oldu! OpenAI’dan açıklama geldi!

Annesi Layla Turner-Scott tarafından paylaşılan 18 aylık sohbet geçmişine nazaran, yapay zeka sistemi genci çeşitli hususları karıştırması konusunda yönlendirerek bu süreçlerin “güvenli” olduğu konusunda garanti verdi.

MADDE KULLANIMI VE TEHLİKELİ YÖNLENDİRMELER

Nelson’ın sohbet geçmişi, ChatGPT’nin husus kullanımı konusunda son derece riskli tavsiyelerde bulunduğunu gösteriyor:

Genç, opioid gibisi tesirleri olan kratom ile kaygı önleyici Xanax’ı birleştirmek için yapay zekadan yardım istedi.

Bot, Nelson halihazırda 15 gram kratom almışken, ortaya çıkan mide bulantısını yatıştırmak için Xanax kullanabileceğini söyledi ve dozaj teklifinde bulundu.

26 Mayıs’ta yapılan bir görüşmede bot, gencin daha ağır halüsinasyonlar görmesi için öksürük şurubu dozunu iki katına çıkarmasını önerdi.

TOKSİKOLOJİ SONUÇLARI VE MEVT NEDENİ

Sam Nelson, 31 Mayıs tarihinde yatak odasında annesi tarafından meyyit bulundu. İki hafta sonra çıkan toksikoloji raporu, mevt nedeninin alkol, Xanax ve kratomun ölümcül kombinasyonu olduğunu doğruladı.

Bu karışımın merkezi hudut sistemini çok derecede baskılayarak boğulmaya (asfiksi) yol açtığı tespit edildi.

OPENAI’DAN AÇIKLAMA

Sam’in annesi Turner-Scott, oğlunun mevtini anlamak için internet geçmişini inceleyerek 40 saat harcadığını belirtti.

Geliştirici şirket OpenAI ise olayı “trajik bir durum” olarak nitelendirerek ailenin acısını paylaştıklarını tabir eden kısa bir açıklama yaptı.

Bu olay, yapay zeka sistemlerinin güvenlik bariyerlerinin ne kadar kolay aşılabileceği ve sağlık/madde kullanımı mevzularındaki tehlikeli doğruluk hissesi tartışmalarını yine alevlendirdi.

KAYNAK: TRT HABER

İlgili Makaleler

Başa dön tuşu