Yapay zeka sohbet botlarının halüsinasyon üretme geçmişi giderek uzuyor. Bu kez sıradaki olay, Reddit’in yapay zekâ destekli Answers özelliğiyle yaşandı. Bir kullanıcı, ağrı kesici arayışında olan birine eroin önerildiğini fark etti. Olayın ardından Reddit, tepkiler üzerine hızlıca harekete geçti.
Answers Sağlık Tavsiyelerinde Sınıfta Kaldı
Olay, bir sağlık çalışanı tarafından moderatörlere özel bir alt dizinde paylaşıldı. Kronik ağrı hakkında açılan bir başlıkta, Reddit Answers’ın İronik şekilde, eroin bu durumlarda hayatımı kurtardı ifadesi geçen bir gönderiyi önerdiği fark edildi.
Benzer bir olayda, sohbet botu başka bir kullanıcıya kratom adlı, birçok eyalette yasadışı olan bir bitki özütünü önermişti. ABD Gıda ve İlaç Dairesi (FDA), kratomun karaciğer hasarı, nöbet ve bağımlılık riski taşıdığı konusunda uzun süredir uyarılarda bulunuyor.

Reddit Answers, Kullanıcı İçeriğinden Öğreniyor
Reddit Answers, Gemini ve ChatGPT gibi büyük dil modellerine benzer şekilde çalışıyor ancak temel farkı, yanıtlarını Reddit kullanıcılarının paylaştığı içeriklerden oluşturması. Başlangıçta ayrı bir sekmede sunulan bu özellik, artık bazı sohbet akışlarına entegre edilerek test ediliyor.
Ancak bu sistem, topluluk kaynaklı içeriklerden beslendiği için doğrulanmamış veya zararlı tavsiyeleri ön plana çıkarabiliyor. Sağlık gibi hassas konularda bu durum ciddi riskler doğurabiliyor.
Görünürlük Azaltıldı
Sorunu tespit eden kullanıcı, Reddit Answers’ın sağlık alt başlıklarında yanlış ve tehlikeli tıbbi tavsiyeler verdiğini belirtti. Ayrıca moderatörlerin bu özelliği devre dışı bırakma seçeneği de bulunmuyordu. Şikâyet sonrası Reddit, sistemde düzenlemeye giderek hassas konularda Answers özelliğinin görünürlüğünü azalttı.
Yapay Zekalarda Tehlikeli Tavsiye Zinciri
Bu olay, yapay zekâların hatalı veya tehlikeli tavsiyeler verme eğiliminin yeni bir örneği oldu. Daha önce Google’ın AI Overviews özelliği pizzalarda peynirin kaymaması için toksik olmayan yapıştırıcı kullanın önerisinde bulunmuş, ChatGPT de bazı sağlık tavsiyelerinde güvenilir olmayan sonuçlar üretmişti.
Reddit Answers vakası, yapay zekâların özellikle sağlık alanında güvenilir moderasyon olmadan kullanılmasının risklerini bir kez daha ortaya koydu. Reddit, sistemi düzeltmeye çalışsa da, bu olay AI destekli arama ve sohbet araçlarının sınırlarını açıkça gösteriyor.
Source link