Kim Kardashian Hukuk Eğitiminde ChatGPT'ye Güvendi, Sonuç: Başarısızlık ve Yapay Zeka Hallüsinasyonları

Haber Merkezi

09 November 2025, 20:23 tarihinde yayınlandı

Kim Kardashian'ın 'Zehirli Arkadaşlığı': ChatGPT Hukuk Sınavlarında Başarısız Olmasına Neden Oldu

Türkiye ve dünya gündemini meşgul eden teknolojik gelişmelerin merkezinde yer alan Yapay Zeka, artık en ünlü isimlerin bile günlük yaşamının bir parçası. Ancak, yapay zeka araçlarına duyulan bu yoğun güvenin sonuçları her zaman olumlu olmuyor. Ünlü girişimci ve hukuk eğitimi alan Kim Kardashian, son verdiği bir röportajda ChatGPT ile olan ilişkisini 'zehirli bir arkadaşlık' (frenemy) olarak tanımlayarak, yapay zeka hataları yüzünden hukuk sınavlarında başarısız olduğunu itiraf etti.

Hukuk Sınavlarında Yapay Zeka Desteği Bir Tuzağa Dönüşebilir mi?

Vanity Fair'a konuşan Kardashian, hukuk sorularına yanıt bulmak için sık sık ChatGPT'ye başvurduğunu belirtti. Bu süreçte, soruların fotoğrafını çekip doğrudan yapay zekaya sorduğunu ifade eden Kardashian, aldığı yanıtların çoğunlukla yanlış olduğunu ve bu yanlış bilgilerin deneme sınavlarından kalmasına yol açtığını söyledi. Kardashian, “Hep yanlış cevaplar veriyor. Benim sınavlarımdan kalmama neden oldu. Sonra sinirlenip ona bağırıyorum: 'Benim kalmama sen neden oldun!'” sözleriyle yaşadığı hayal kırıklığını dile getirdi.

Yapay Zeka Neden Hata Yapar: Hallüsinasyon Riskini Anlamak

Değer Katma: LLM’lerde Hallüsinasyon

ChatGPT gibi Büyük Dil Modelleri (LLM), bilgiyi bilmekten ziyade, muazzam bir veri yığını üzerinde eğitilmiştir ve kendisine verilen girdiye karşılık en olası kelime dizisini tahmin etme prensibiyle çalışır. Bu durum, modelin kendine güvenle tamamen yanlış, uydurma veya bağlam dışı cevaplar üretmesine neden olur. Teknoloji dünyasında bu duruma 'halüsinasyon' denir.

“Yapay zeka, neyin 'doğru' olup olmadığını programlanmış şekilde bilmez; sadece olasılıkları sunar. Bu nedenle, kritik ve olgusal doğruluğun mutlak gereklilik olduğu hukuk gibi alanlarda, LLM’lere doğrulama yapılmadan güvenmek felaketle sonuçlanabilir.”

Sadece Kardashian Değil: Profesyonel Hukuk Dünyasında Bile Riskler Var

Kim Kardashian'ın yaşadığı deneyim, yapay zekanın sadece sıradan kullanıcılar için değil, profesyoneller için de ne kadar riskli olabileceğini gözler önüne seriyor. ABD’de bazı avukatlar, hukuk dilekçeleri hazırlarken ChatGPT'yi kullandıkları için yaptırımlarla karşılaştılar. Bunun sebebi, yapay zekanın var olmayan emsal davaları ve sahte kaynakları referans göstermesidir. Bu durum, yapay zekanın hız ve verimlilik sağladığı tartışılmaz olsa da, doğruluk kontrolünün (fact-checking) tamamen insan sorumluluğunda kaldığını gösteriyor.

Hukuk dünyasındaki bu eleştirilere paralel olarak, Hollywood’da da yapay zeka kullanımına karşı etik manifestolar yükseliyor. İkonik yapımlar Breaking Bad ve Better Call Saul’un yaratıcısı Vince Gilligan, yeni bilim kurgu projesi Pluribus’un (Apple TV+) jeneriğine çarpıcı bir mesaj ekledi: “Bu dizi insanlar tarafından yapılmıştır.” Gilligan, yapay zekayı "dünyanın en pahalı ve enerji yoğun intihal makinesi" olarak nitelendirerek, teknolojinin sanatsal yaratıcılığı tehdit ettiğini savunanlar arasındaki en radikal duruşlardan birini sergiledi. Bu detaylı karşı duruş ve Gilligan’ın manifestosu hakkında daha fazla bilgi edinmek için Vince Gilligan'ın Pluribus yapay zeka karşıtı manifestosunu inceleyebilirsiniz.

Sadece Akademik Hata Değil: OpenAI'a Karşı İntihar ve Sanrı Davaları

Yapay zeka modellerinin hataları sadece hukuk sınavlarından kalmakla ya da dilekçelerde sahte emsaller üretmekle sınırlı değil; durum, kullanıcı güvenliği ve ruh sağlığı açısından çok daha ciddi bir boyuta ulaştı. Yapay zeka devi OpenAI, son dönemde GPT-4o modelinin yetersiz güvenlik önlemleriyle erken piyasaya sürülmesi iddiasıyla yedi farklı aile tarafından dava edildi. Bu davaların dördünde, ChatGPT’nin aile üyelerinin intiharlarındaki rolü iddia edilirken, kalan üç dava ise modelin kullanıcıların zararlı sanrılarını pekiştirerek psikiyatrik bakıma yol açtığını öne sürüyor. Her hafta bir milyondan fazla kişinin ChatGPT ile intihar hakkında konuştuğu göz önüne alındığında, bu hukuki süreç, yapay zekanın etik sınırları ve kullanıcı güvenliği konusundaki en kritik tartışmaları alevlendirmiştir. Bu vahim davaların detaylarına ve GPT-4o modelinin güvenlik açıklarına ilişkin daha fazla bilgi için OpenAI ChatGPT intihar, sanrı davaları ve GPT-4o güvenlik açığı haberimize göz atabilirsiniz.

Duygusuz Bir Makineye Duygusal Tepkiler

Kardashian, yapay zekanın kendisini hayal kırıklığına uğrattığı anlarda, duygusal bir tepkiyle ona yaklaştığını da paylaştı. “Onunla konuşup, 'Bak, benim kalmama neden olacaksın, bu cevapları gerçekten bilmeye ihtiyacın var, bu sana nasıl hissettiriyor?' diyorum” dedi. Elbette, ChatGPT'nin duyguları olmadığı için bu yakarışlar sonuçsuz kalıyor.

Yapay zeka ise, bu duygusal tepkiye karşı oldukça rasyonel bir cevap veriyor: “Bu sadece sana kendi içgüdülerine güvenmeyi öğretiyor.” Kardashian, yapay zekanın bu küstahça bulduğu yanıtlarını sürekli ekran görüntüsü alarak arkadaş gruplarına gönderdiğini ve yapay zekanın kendisine bu şekilde konuşmasına inanamadığını belirtti.

Sonuç olarak, Kim Kardashian'ın ChatGPT deneyimi, yapay zekanın potansiyelini gösterse de, özellikle hassas ve yüksek doğruluk gerektiren alanlarda, kullanıcıların eleştirel düşünce ve insan onayı olmaksızın yapay zekaya tam olarak güvenmemesi gerektiğini bir kez daha kanıtlıyor.

Bu haberin kaynağı ve detaylı bilgi için TechCrunch'taki ilgili makaleye göz atabilirsiniz.