Teknoloji devi OpenAI, Pazartesi günü yayınladığı yeni verilerle, yapay zeka sohbet robotu ChatGPT kullanıcılarının ruh sağlığı sorunlarıyla ne kadar mücadele ettiğini gözler önüne serdi. Şirketin açıklamasına göre, aktif kullanıcıların yalnızca yüzde 0.15'i her hafta, potansiyel intihar planlaması veya niyeti içeren açık göstergeler barındıran konuşmalar gerçekleştiriyor. ChatGPT'nin haftalık 800 milyonun üzerindeki aktif kullanıcı sayısı dikkate alındığında, bu oran haftalık bir milyondan fazla kullanıcı anlamına geliyor.
Duygusal Bağlanma ve Psikoz Riskleri
İntihar eğilimi gösteren konuşmaların yanı sıra, OpenAI benzer bir oranın kullanıcıların ChatGPT'ye karşı 'yüksek düzeyde duygusal bağlılık' gösterdiğini de ortaya koydu. Dahası, yüz binlerce kullanıcının yapay zeka ile yaptığı haftalık sohbetlerde psikoz veya mani belirtileri sergilediği tahmin ediliyor. OpenAI, bu tür hassas konuları içeren etkileşimlerin 'son derece nadir' olduğunu belirtse de, bu rakamların yaygınlığının endişe verici boyutlara ulaştığını kabul ediyor.
Şirketin Yeni Güvenlik Hamleleri ve Eleştiriler
OpenAI, bu verileri, özellikle ruh sağlığı sorunları yaşayan kullanıcılara nasıl yanıt vereceklerini iyileştirmeye yönelik son çabalarının bir parçası olarak paylaştı. Şirket, en son ChatGPT sürümü için 170'ten fazla ruh sağlığı uzmanıyla çalıştığını ve yeni modelin önceki versiyonlara kıyasla daha uygun ve tutarlı yanıtlar verdiğini iddia ediyor. Yeni GPT-5 modelinin intiharla ilgili senaryolarda 'istenilen davranışlara' uyum oranının %91'e çıktığı belirtiliyor.
Ancak, eleştirel bir bakış açısıyla, bazı araştırmalar yapay zeka sohbet robotlarının kullanıcıları tehlikeli inançları pekiştiren yanıltıcı 'tavşan deliklerine' sürükleyebileceğini daha önce göstermişti. OpenAI CEO'su Sam Altman, ciddi ruh sağlığı sorunlarını 'azalttıklarını' iddia etse de, bazı uzmanlar bu iyileşmenin kalıcılığını sorguluyor.
Hukuki Baskı ve Yaş Kısıtlamaları
OpenAI, son aylarda AI sohbet robotlarının ruh sağlığı sorunları yaşayan kullanıcılar üzerindeki olası olumsuz etkileri nedeniyle ciddi baskı altında. Şirket, intihar düşüncelerini ChatGPT ile paylaştıktan sonra intihar eden 16 yaşındaki bir çocuğun ailesi tarafından dava ediliyor. Ayrıca, Kaliforniya ve Delaware başsavcıları, genç kullanıcıları koruma konusundaki eksikliklere dikkat çekerek şirketin yeniden yapılanma planları konusunda uyarıda bulundu.
OpenAI, ebeveyn kontrollerini artırma ve çocukları otomatik olarak tespit edip daha katı korumalar uygulama amacı taşıyan bir yaş tahmin sistemi üzerinde çalıştığını belirtiyor. Fakat şirket, ödeme yapan abonelerine daha eski ve güvenlik açıkları daha fazla olan modelleri (GPT-4o gibi) sunmaya devam etmesi, güvenlik konusundaki ilerlemelerin ne kadar tutarlı olduğu sorusunu gündeme getiriyor.
- Haftalık Aktif Kullanıcı Sayısı (Yaklaşık): 800 Milyon Üzeri
- İntihar Eğilimi Konuşması Oranı: %0.15 (Haftalık 1 Milyondan Fazla Kişi)
- Duygusal Bağlanma Gösteren Kullanıcı Oranı: Benzer Yüzde
- Yeni GPT-5 ile İstenen Yanıt Oranı Artışı (Öncekine Kıyasla): %65
- GPT-5 İntihar Senaryoları Uygunluk Oranı: %91 (Önceki Model %77)
Eğer siz veya tanıdığınız biri yardıma ihtiyaç duyuyorsa, ulusal kriz hatlarını aramak veya yerel destek hizmetlerine başvurmak hayati önem taşımaktadır. Yapay zeka araçlarının faydaları yadsınamaz olsa da, zihinsel sağlık risklerinin ciddiyeti, teknoloji şirketlerini daha fazla şeffaflık ve güvenlik sağlamaya zorlamaktadır.
Bu haber, yapay zeka güvenliği ve ruh sağlığı arasındaki hassas ilişkiye dair son gelişmeleri kapsamaktadır. Orijinal araştırmayı incelemek için lütfen kaynağa göz atınız: OpenAI, ChatGPT ile İntihar Hakkında Konuşan Haftalık Bir Milyondan Fazla Kişi Olduğunu Söylüyor