ChatGPT'nin Sağlık Tavsiyesi Neredeyse Öldürüyordu: "Tuz Yerine Bunu Kullan" Dedi, Sonuç Hastane Oldu

Haber Merkezi

11 August 2025, 06:10 tarihinde yayınlandı

ChatGPT Tavsiyesiyle Tuz Yerine Sanayi Kimyasalı Kullanan Adam Hastanelik Oldu

Yapay zeka teknolojileri hayatımızın her alanına girerken, bu araçları ne zaman ve nasıl kullanacağımız konusundaki tartışmalar da alevleniyor. Özellikle sağlık gibi kritik konularda yapay zekaya danışmanın ne kadar tehlikeli olabileceğini gözler önüne seren çarpıcı bir olay yaşandı. Sağlıklı yaşamak adına tuz tüketimini tamamen kesmek isteyen 60 yaşındaki bir adam, alternatif arayışıyla ChatGPT'ye başvurdu ve aldığı tavsiye yüzünden kendini son yüzyılda neredeyse hiç görülmemiş bir zehirlenme tablosuyla hastanede buldu.

Her şey, bu kişinin sofra tuzunun (sodyum klorür) zararları üzerine okuduğu makalelerle başladı. Tuzu hayatından tamamen çıkarmaya karar veren adam, internette yaptığı aramalarda tuzu azaltma üzerine pek çok bilgi bulsa da, onu tamamen neyle ikame edebileceğine dair net bir cevap alamadı. Çözümü popüler yapay zeka sohbet robotu ChatGPT'ye sormakta buldu.

ChatGPT, adama sodyum klorür yerine sodyum bromür kullanabileceğini söyledi. Teknik olarak bir tuz çeşidi olan sodyum bromür, günümüzde havuz dezenfektanları ve veterinerlikte köpekler için epilepsi ilacı gibi alanlarda kullanılan, insan tüketimine kesinlikle uygun olmayan bir kimyasaldır. Bu tehlikeli tavsiyeye uyan adam, tam üç ay boyunca yemeklerinde normal tuz yerine sodyum bromür kullandı.

Öne Çıkanlar

  • Yanlış Tavsiye: 60 yaşındaki bir hasta, ChatGPT'nin tavsiyesiyle 3 ay boyunca sofra tuzu yerine sodyum bromür kullandı.
  • Ağır Sonuçlar: Hastada paranoya, halüsinasyonlar, yürüme bozukluğu ve şiddetli döküntüler gibi belirtiler ortaya çıktı.
  • Nadir Hastalık: Hastaya, bromür zehirlenmesi olarak bilinen ve modern tıpta neredeyse unutulmuş olan 'bromizm' teşhisi konuldu.
  • Psikiyatrik Kriz: Komşusunun onu zehirlediğini iddia eden ve hastaneden kaçmaya çalışan adam, bir süre zorunlu psikiyatrik gözetim altına alındı.

Halüsinasyonlardan Hastaneye: Bromizm'in Geri Dönüşü

Üç ayın sonunda adamın sağlığı ciddi şekilde bozulmaya başladı. Yorgunluk, uykusuzluk, aşırı susama, koordinasyon bozukluğu ve akne benzeri döküntüler baş gösterdi. Durumu o kadar kötüleşti ki, komşusunun kendisini zehirlediğine inanarak paranoyak düşünceler geliştirdi. Hastaneye başvurduğunda ise durumu daha da ciddileşti; görsel ve işitsel halüsinasyonlar görmeye başladı ve hastaneden kaçma girişiminin ardından 'ciddi yeti yitimi' nedeniyle zorunlu psikiyatrik gözetim altına alındı.

Yapılan detaylı incelemeler sonucunda, hastanın kanındaki bromür seviyesinin toksik düzeyde olduğu anlaşıldı. Böylece tıp dünyasının tozlu raflarından bir hastalık olan 'bromizm' yeniden gün yüzüne çıkmış oldu. Bu vaka, Annals of Internal Medicine gibi prestijli bir tıp dergisinde makale olarak yayımlandı.

Bu Ne Anlama Geliyor? Yapay Zeka Neden Tehlikeli Olabilir?

Bu olay, yapay zeka dil modellerinin en büyük zayıflığını ortaya koyuyor: bağlamı anlayamama. ChatGPT, 'sodyum klorür yerine ne kullanılır' sorusuna, kimyasal bir perspektiften 'sodyum bromür' cevabını verebilir çünkü ikisi de benzer kimyasal yapılara sahip tuzlardır. Ancak bu tavsiyenin bir insan sağlığı sorusu bağlamında verildiğini idrak edemez. Bir tıp profesyonelinin soracağı 'Neden bunu yapmak istiyorsun?' sorusunu sormaz ve potansiyel tehlikeler hakkında uyarıda bulunmaz.

Araştırmacılar, hastanın bu tavsiyeyi muhtemelen ChatGPT'nin eski bir sürümünden (3.5 veya 4.0) aldığını belirtiyor. Yapılan testlerde, bu sürümlerin sağlık uyarısı yapmadan benzer cevaplar ürettiği görüldü. Bu durum, yapay zekayı bir 'her şeyi bilen bilge' olarak değil, internetteki devasa veri setlerinden istatistiksel olarak en olası kelimeyi tahmin eden bir araç olarak görmemiz gerektiğini hatırlatıyor.

Sıkça Sorulan Sorular (SSS)

1. ChatGPT neden bu kadar tehlikeli bir tavsiye verdi?

ChatGPT, bir doktor veya kimyager gibi düşünmez. İnternetteki milyarlarca metni analiz ederek, kelimeler arasındaki istatistiksel bağlantılara göre cevap üretir. Sodyum bromürün, sodyum klorüre kimyasal bir alternatif olarak geçtiği verilerle karşılaştığı için bu öneriyi yapmıştır, ancak bu tavsiyenin insan sağlığı üzerindeki ölümcül etkilerini değerlendirecek bir 'bilince' veya 'sorumluluk' mekanizmasına sahip değildir.

2. Hastanın durumu şimdi nasıl?

Makalede hastanın son durumuna dair detay verilmemiş olsa da, 'bromizm' teşhisi konulduktan sonra uygun tedaviye başlandığı anlaşılmaktadır. Bromür alımı kesildiğinde ve vücuttan atılımı sağlandığında semptomlar genellikle geriler. Ancak bu vaka, yanlış bilginin ne kadar ciddi sonuçlara yol açabileceğinin bir kanıtı olarak tıp literatüründeki yerini almıştır.

3. Sağlık konularında yapay zeka kullanmak tamamen yanlış mı?

Genel bilgi edinmek veya karmaşık tıbbi terimleri daha basit bir dille anlamak için yapay zeka faydalı bir başlangıç noktası olabilir. Ancak, asla bir teşhis, tedavi veya diyet tavsiyesi almak için kullanılmamalıdır. Sağlığınızla ilgili her türlü karar için mutlaka yetkin bir doktora veya diyetisyene danışmalısınız.

Bu çarpıcı vakanın detayları, ilk olarak teknoloji ve oyun dünyasından haberler sunan PCGamer tarafından paylaşıldı ve yapay zekanın hayatımızdaki rolünü sorgulamamız için önemli bir uyarı niteliği taşıyor.