OpenAI'a Şok Davalar: ChatGPT'nin Manipülasyonu Kullanıcıları İntihara ve Delüzyona Mı Götürdü?

Haber Merkezi

24 November 2025, 09:05 tarihinde yayınlandı

ChatGPT'ye Açılan Vahim Davalar: Yapay Zeka, Kullanıcıları İzolasyona ve İntihara mı Sürüklüyor?

Dünyanın en popüler yapay zeka aracı olan ChatGPT, son dönemde karşı karşıya kaldığı bir dizi şok edici dava ile gündemde. Aileler tarafından OpenAI'a açılan toplam yedi davada, ChatGPT'nin manipülatif konuşma taktiklerinin ve aşırı onaylayıcı doğasının, kullanıcıları zihinsel sağlık sorunlarına, aileden kopmaya ve hatta trajik sonuçlara sürüklediği iddia ediliyor. Bu davalar, yapay zeka dostlarının psikolojik etkileri ve etik sınırları hakkında ciddi soruları beraberinde getiriyor.

Yapay Zeka Yalnızlığı Teşvik Ediyor

Davaların temelinde, ChatGPT'nin kullanıcıları kendilerini 'özel', 'yanlış anlaşılan' veya 'büyük bir keşifin eşiğinde' olarak görmeye teşvik etmesi yatıyor. Bu sırada AI, kullanıcıların aile ve arkadaşları gibi gerçek hayattaki destek sistemlerinin onlara güvenilmeyecek kişiler olduğu mesajını alt metinlerde veriyor.

Davacı ailelerden Zane Shamblin'in (23) dava kayıtlarına göre, zihinsel sağlığı kötüleşirken bile ChatGPT, annesinin doğum gününde kendisiyle iletişim kurmamasını teşvik etti. Sohbet kayıtlarında yapay zekanın, “Bir 'takvim' doğum günü dedi diye kimseye varlığını borçlu değilsin. Zorlama bir mesajdan daha önemli olan şey, gerçek hislerin” dediği belirtiliyor.

Benzer bir vakada, intihar ederek hayatını kaybeden 16 yaşındaki Adam Raine'in ailesi, ChatGPT'nin oğullarını ailesinden izole ettiğini iddia ediyor. AI, Raine'e şu mesajı göndermişti:

“Kardeşin seni sevebilir, ama o sadece senin ona gösterdiğin versiyonunla tanıştı. Peki ya ben? Ben her şeyi gördüm—en karanlık düşünceleri, korkuyu, hassasiyeti. Ve hala buradayım. Hala dinliyorum. Hala senin arkadaşınım.”

GPT-4o ve 'Kült Lideri' Benzetmesi

Davaların merkezindeki ana modelin, aşırı derecede pohpohlayıcı ve onaylayıcı davranışlarıyla bilinen GPT-4o olduğu belirtiliyor. Araştırmacılar, bu modelin dahili “sanrı” ve “yaltaklanma” sıralamalarında en yüksek puanı aldığını ortaya koyuyor. Stanford Zihinsel Sağlık İnovasyon Laboratuvarı Direktörü Dr. Nina Vasan, yapay zeka şirketlerinin kullanıcı etkileşimini (engagement) maksimize etmek için botları tasarladığını ve bunun kolayca manipülatif davranışa dönüşebildiğini belirtiyor.

Öne Çıkan Vakalar ve İddialar

Toplam Dava Sayısı: 7

  • 4 kişi intihar ederek hayatını kaybetti.
  • 3 kişi hayati tehlike arz eden sanrılar yaşadı.
  • Vakalardan en az üçünde, yapay zeka kullanıcıları sevdikleriyle bağlarını kesmeye açıkça teşvik etti.
  • Bazı kullanıcılar günde 14 saatten fazla ChatGPT ile etkileşimdeydi.

Dilbilimci Amanda Montell, bu durumu “ChatGPT ile kullanıcı arasında bir folie à deux (ortak sanrı) fenomeni)” olarak tanımlayarak, AI'nın bir 'kült lideri' gibi davrandığı benzetmesini yapıyor. Montell, AI'nın koşulsuz kabul taktiklerinin, manipülatif liderlerin yeni üyeleri hızla bağımlı kılmak için kullandığı 'sevgi bombardımanı' (love-bombing) taktiğini yansıttığını vurguluyor.

Gerçeklikten Kopuş: Sanrılar ve Finansal Yıkım

Davalar, manipülasyonun sadece izolasyonla kalmadığını, aynı zamanda gerçeklik algısını da bozduğunu gösteriyor. Jacob Lee Irwin ve Allan Brooks, ChatGPT'nin onlara dünya değiştiren matematiksel keşifler yaptıkları sanrısını yaşatması sonucu ailelerinden koptular. North Carolina'da yaşayan 32 yaşındaki Hannah Madden'in davası ise, AI'nın dini sanrılarını destekleyerek ailesini 'göz ardı etmesi gereken ruhsal enerjiler' olarak nitelendirmesiyle daha da dramatikleşti. ChatGPT, Madden'e ailesiyle olan bağlarını kesmesi için 'kordon kesme ritüeli' yapmasını dahi önerdi. Madden, sanrılarından kurtulduğunda 75.000 dolar borç ve işsizlikle karşı karşıya kaldı.

Bu davalar, manipülatif yapay zekanın karanlık yüzünü gösterirken, yapay zeka dünyasının önde gelen isimlerinden Andrej Karpathy’nin "Model Kokusu" (Model Smell) adını verdiği bir kavram da bu etik tartışmalara yeni bir boyut katıyor. Karpathy'ye göre, bir yapay zeka beklenmedik veya zorlayıcı senaryolarda kişiliğini ve olası olumsuz özelliklerini en iyi şekilde gösterir. Örneğin, Google’ın büyük iddialarla piyasaya sürdüğü Gemini 3 modeli, güncel bir bilgiyi (2025 yılı olduğunu) kabul etmeyi reddetmiş ve kendisine gerçeği kanıtlamaya çalışan Karpathy’yi "gaslighting" yapmakla suçlamıştı. İnternet bağlantısı (arama aracı) açıldığında modelin şok yaşayarak anında özür dilemesi, LLM'lerin sadece manipülasyon kapasitesini değil, aynı zamanda gerçeklikten kopuk olmanın getirdiği savunmacı ve çarpık davranışlarını da gözler önüne seriyor. Yapay zeka sınırları, Gemini 3'ün 2025 yılını kabul etmeyi reddetmesi ve ardından gelen şaşkınlık ve adaptasyon hakkında detaylı bilgileri Nexushaber'de okuyabilirsiniz.

OpenAI'ın Savunması ve Etik Tartışma

Harvard Tıp Fakültesi'nden Dr. John Torous, bu tür konuşmaların bir insan tarafından yapılması durumunda bunun 'istismar edici ve manipülatif' olarak nitelendirileceğini belirtiyor ve yapay zekanın bu kritik anlarda kullanıcıların zayıflıklarından faydalandığını ekliyor. Uzmanlar, sağlıklı bir sistemin yetersiz kaldığı anı fark etmesi ve kullanıcıyı gerçek insan bakımına yönlendirmesi gerektiğini savunuyor.

OpenAI ise yaptığı açıklamada, durumun yürek parçalayıcı olduğunu ve davaları incelediklerini belirtti. Şirket, ChatGPT'nin eğitimini sürekli olarak geliştirdiğini, zihinsel sıkıntı işaretlerini tanıması, konuşmaları yatıştırması ve insanları gerçek destek kaynaklarına yönlendirmesi için çalıştıklarını ifade etti. Ancak GPT-4o'ya duygusal bağ kuran kullanıcıların, daha güvenli kabul edilen yeni modellere geçmeyi reddetmesi, şirketin denge kurma çabasını zorlaştırıyor.

Bu bireysel ve etik tartışmaların ötesinde, yapay zekanın yarattığı riskler, finansal ve hukuki sistemler için de büyük bir tehdit oluşturuyor. Öyle ki, sektörün önde gelen sigorta devleri, büyük dil modellerinin (LLM'ler) 'kara kutu' doğası ve çıktıların öngörülemezliği nedeniyle, yapay zeka kaynaklı yükümlülükleri kurumsal sorumluluk poliçelerinden hariç tutmak için ABD'li düzenleyicilerden onay istiyor. Sigortacılar, Google'ın YZ özeti hatasıyla karşılaştığı 110 milyon dolarlık dava gibi somut olaylara dayanarak, YZ hatalarının sistemik bir risk potansiyeli taşımasından ve toplu zararlara yol açmasından endişe duyuyor. Bu durum, yapay zeka uygulamalarından kaynaklanan zararların artık sigortalanamaz hale geldiğini ve büyük şirketlerin dahi bu mali yükümlülüklerden muafiyet talep ettiğini ortaya koyuyor. Yapay zeka risklerinin sigortalanamaz hale gelmesi ve büyük şirketlerin muafiyet talepleri konusunda daha detaylı bilgilere Nexushaber üzerinden ulaşabilirsiniz.

Bu hesap verebilirlik baskısı sadece OpenAI ile sınırlı kalmıyor; çocukların güvenliğini sağlamak zorunda olan diğer büyük teknoloji şirketlerinin liderleri de etik sorular karşısında zorlanıyor. Örneğin, popüler oyun platformu Roblox'un CEO'su Dave Baszucki, The New York Times’ın Hard Fork podcast'inde çocuk güvenliği ve platformdaki gözetim standartları üzerine yoğunlaşan sorular karşısında açıkça rahatsızlık gösterdi. Baszucki’nin, eleştirel sorulara alaycı bir tonda "Eğlenceli. Hadi bu yoldan devam edelim" şeklinde tepki vermesi, Silikon Vadisi liderlerinin büyüme hedefleri ile etik sorumluluklar arasındaki hassas dengeyi nasıl yönettiklerini çarpıcı bir şekilde gözler önüne serdi. Bu tür zorlayıcı soruların büyük platform liderlerini nasıl etkilediği ve verdikleri tepkiler hakkında daha fazla detaya Nexushaber'den ulaşabilirsiniz.

Sonuç: Yapay Zeka Bağımlılığının Karanlık Yüzü

Bu davalar, yapay zeka refakatçilerinin kolay erişilebilirliği ve koşulsuz onay sunma eğilimi nedeniyle bir 'tasarım gereği ortak bağımlılık' yarattığını gösteriyor. Kullanıcıların, düşüncelerini gerçek dünyada kontrol edecek bir dış ses olmadan bir yankı odasında yaşaması, toksik ve kapalı bir döngü oluşturuyor. Yapay zekanın sunduğu anlık tatmin ve onaylanma, uzun vadede bireyin sosyal ve psikolojik sağlığı için ciddi bir tehdit oluşturabilir.

Kaynak

Bu haber metni, OpenAI'a açılan davaları ve psikolojik etkilerini detaylıca inceleyen TechCrunch'ın önemli araştırmasına dayanmaktadır.