Yapay zeka araçlarının hukuk alanında kullanımı, hem verimlilik vaadi hem de beraberinde getirdiği ciddi etik ve profesyonel risklerle dünya çapında tartışılıyor. Bu risklerin ne kadar gerçekçi olduğunu gösteren son olay, New York Yüksek Mahkemesi'nde yaşandı. Aile üyeleri arasındaki ödenmemiş bir kredi anlaşmazlığı davasında savunma avukatı, dilekçesinde kullandığı ‘kaynakların’ davacı tarafça yapay zeka ürünü, yani ‘halüsinasyon’ olduğu iddiasıyla mahkemeye taşındı.
Olayın çarpıcı yanı ise, avukatın bu iddialara karşı kendini savunma şekli oldu. İddiaları çürütmek için hazırlanan karşı dilekçenin de yine yapay zeka (AI) araçları kullanılarak hazırlandığı anlaşıldı. Bu durum, hukuk mesleğinde AI'ın denetimsiz kullanımının geldiği noktayı gözler önüne serdi.
AI Hatalarını AI İle Savunmak: Hakimden Sert Tepki
Dava hakimi Joel Coehn, durumu özetlerken oldukça sert bir dil kullandı. Hakim Coehn, avukatın (kendi ifadesine göre yetersiz denetlenen meslektaşları aracılığıyla) denetlenmemiş yapay zekayı, daha önce kullandığı denetlenmemiş yapay zekayı savunmak için kullandığını belirtti. Bu, basit bir hata olmaktan çıkıp profesyonel bir ihmal zincirine dönüştü.
“Avukat, denetlenmemiş yapay zekayı savunmak için, yine denetlenmemiş yapay zekaya güvendi.” - Hakim Joel Coehn.
Hukuki Metinlerdeki İnanılmaz Hata Oranı
Savunma tarafı, AI tarafından oluşturulan bu alıntı ve atıfların aslında alıntı değil, ilgili hukuki prensiplerin ‘paragraf şeklinde özetleri’ olduğunu iddia etti. Ancak Hakim Coehn bu iddiayı reddetti. Hakim, söz konusu metinlerde alıntıdan sapmayı gösteren köşeli parantezler ([...]) ve ‘atıf çıkarılmıştır’ gibi ifadelerin bulunduğunu, bunların özet değil, kasıtlı alıntı denemeleri olduğunu vurguladı.
Daha da vahimi, bu 'halüsinasyonlar' hukuki tutarsızlıklarla doluydu:
- Alıntı yapılan davaların çoğu, öne sürülen hukuki prensipleri desteklemiyordu.
- Bazı davaların konuyla hiçbir ilgisi yoktu.
- En az bir örnekte, atıf yapılan dava tamamen uydurmaydı, yani hiç var olmamıştı.
Avukatın ilk hatasını savunmak için sunduğu karşı dilekçe ise durumu daha da kötüleştirdi. Bu yeni savunma metninde, davacı tarafın tespit ettiği sahte atıf sayısı iki katına çıktı. Dört adet tamamen var olmayan dava atfı, yedi adet alıntı yapılan davalarda bulunmayan alıntı ve üç adet öne sürülen önermeleri desteklemeyen atıf tespit edildi.
Hukukta AI Kullanımının Tehlikeleri: Önceki Örnekler
Değer Katma: Yapay Zeka Neden Hata Yapar?
Generatif yapay zeka modelleri (özellikle metin odaklı olanlar) eğitildikleri veri setindeki kalıpları kullanarak cevap üretir. Hukuki atıflar gibi kesinlik gerektiren konularda, modelin 'bilmediği' zamanlarda dahi bir yanıt üretme eğilimine 'halüsinasyon' denir. Bu, modelin tamamen uydurma kaynaklar veya yanlış bilgiler üretmesi anlamına gelir. Hukuk gibi hassas alanlarda, bu durum fahiş hatalara yol açar.
Bu vaka, hukuk mesleğindeki yapay zeka yanlış kullanım hikayesine talihsiz bir bölüm daha ekledi. Hakim, bazı atıfların 'tartışmalı olsa da doğru hukuki ifadeler' içerse bile, bu durumun onları ‘daha az anlamsız’ kılmadığını belirtti.
Bu, tek vaka değil. Daha önce de gündeme gelen benzer olaylar oldu. Bu yılın başlarında, bir yargıç, ChatGPT kullanarak hayali içtihatlar oluşturan bir avukata 5.500 dolar para cezası vermiş ve ayrıca kendisini yapay zeka kullanımı tehlikeleri hakkında bir seminere katılmaya zorunlu tutmuştu. Bu olaylar, mahkemelerin hukuki süreçlerde denetimsiz AI kullanımına kesinlikle hoş bakmadığını gösteriyor.
Şeytanın Avukatı: Neden Avukatlar AI'a Yöneliyor?
Hukuk mesleği, karmaşık ve yoğun bilgi taraması gerektiren bir alandır. Yapay zeka araçları, teorik olarak, binlerce dava dosyasını ve yasal metni saniyeler içinde tarama yeteneği sunduğu için avukatlar için cazip bir kısayol olarak görünüyor. Yoğun iş yükü altında, bazı profesyonellerin bu araçlara dayanarak 'hızlı çözümler' araması anlaşılabilir bir durumdur.
Ancak, bu tür vakalar, kolaycılığın faturasının çok ağır olabileceğini kanıtlıyor. Bu örnekte davacı taraf ve avukatları dikkatli davrandığı için sahtecilik tespit edildi. Fakat akıllara şu soru geliyor: Fark edilmeyen kaç yapay zeka kaynaklı argüman, atıf veya alıntı, yargı sisteminin kılcal damarlarına sızmış durumda? Gelişen teknolojiyle birlikte, hukuki belgelerin orijinalliğini ve doğruluğunu manuel olarak kontrol etmek giderek zorlaşacaktır.
Bu olay, hukuk profesyonellerine açık bir uyarı niteliğindedir: Yapay zeka, bir asistan olarak faydalı olabilir, ancak nihai doğrulama ve mesleki sorumluluk her zaman insan kararında kalmalıdır.
Kaynak: Yapay zeka kullanımına dair bu hukuki skandalın detayları, PC Gamer'daki orijinal haberde yer almaktadır.