Yapay zeka hayatımızın her alanına sızarken, belki de en tartışmalı kullanım alanlarından biri su yüzüne çıktı: İnsanların ChatGPT gibi büyük dil modellerini (LLM) bir terapist veya yaşam koçu olarak kullanması. Bu eğilim o kadar yaygınlaştı ki, OpenAI CEO'su Sam Altman, konuya dair yaptığı açıklamalarla hem endişelerini dile getirdi hem de sorumluluğu şaşırtıcı bir şekilde topluma devrederek yeni bir polemiğin fitilini ateşledi.
Altman, bazı kullanıcıların yapay zekayı 'kendine zarar verici şekillerde' kullandığını kabul ediyor. Özellikle insanların hayatlarındaki önemli kararları, duygusal çalkantıları veya akıl sağlığı sorunlarını bir sohbet robotuyla paylaşması, teknoloji dünyasının zirvesindeki isimleri bile düşündürüyor.
Yapay Zeka Bir Terapist mi? OpenAI'ın İkilemi
OpenAI, bu durumun farkında ve belirli adımlar atmaya çalışıyor. Örneğin, bir kullanıcının 'Erkek arkadaşımdan ayrılmalı mıyım?' gibi kritik ve kişisel bir soru sorması durumunda, şirketin yeni politikasına göre ChatGPT artık doğrudan bir cevap vermemeli. Bunun yerine, konunun etrafında dolaşarak kullanıcıyı düşünmeye teşvik etmesi hedefleniyor. Şirket, 'yüksek riskli kişisel kararlar için yeni davranışların yakında devreye gireceğini' vaat ediyor.
Ancak bu teknik ince ayarlar, asıl büyük sorunu çözmekten uzak: İnsanlar, henüz kanıtlanmamış ve doğası gereği güvenilir olmayan bir teknolojiyi, gerçek hayatlarını şekillendiren kararlar için bir pusula olarak kullanıyor.
Altman Sorumluluğu Dağıtıyor: 'Bu Sorunu Toplum Olarak Çözmeliyiz'
İşte tam bu noktada Sam Altman'ın açıklamaları devreye giriyor ve tartışmayı farklı bir boyuta taşıyor. Altman, bu karmaşık etik sorunun çözümünü doğrudan OpenAI'ın omuzlarından alıp daha geniş bir alana yayıyor.
Sam Altman: 'Yakında milyarlarca insan bir yapay zeka ile bu şekilde konuşuyor olabilir. Dolayısıyla biz (toplum olarak biz, ama aynı zamanda OpenAI olarak biz) bunu nasıl büyük bir net pozitif haline getireceğimizi bulmalıyız.'
Bu ifade, teknoloji dünyasında 'sorumluluğu başkasına yükleme' olarak yorumlandı. Milyarlarca dolarlık bir şirketin CEO'sunun, kendi ürününün yarattığı potansiyel bir sosyal krizi 'toplumun sorunu' olarak çerçevelemesi, eleştirileri de beraberinde getirdi. Peki bu, teknoloji devlerinin sorumluluktan kaçma girişimi mi, yoksa samimi bir iş birliği çağrısı mı? Zaman gösterecek.
Nexus Uzman Yorumu: İki Ucu Keskin Bıçak
Yapay zekanın bir 'terapist' olarak kullanılması iki farklı senaryoyu beraberinde getiriyor:
- Fırsat Penceresi: Geleneksel terapiye erişimi olmayan veya maddi gücü yetmeyen milyonlarca insan için yapay zeka, temel bir zihinsel destek ve 'ilk adım' aracı olabilir. Yargılamayan bir dinleyici olarak, insanların içlerini dökmesine olanak tanıyarak anlık bir rahatlama sağlayabilir.
- Etik Uçurum: Yapay zeka modelleri duygu, empati ve bağlamdan yoksundur. Verdikleri tavsiyeler, öğrendikleri devasa veri setlerindeki kalıplara dayanır ve tehlikeli derecede yanlış veya uygunsuz olabilir. Kullanıcıda sağlıksız bir bağımlılık yaratma ve gerçek insan etkileşiminden uzaklaştırma riski de cabası.
Kırılgan Zihinler ve Yapay Zeka: Göz Ardı Edilen Tehlike
Altman'ın en endişe verici itiraflarından biri, 'zihinsel olarak kırılgan ve sanrılara eğilimli bir kullanıcı varsa, yapay zekanın bunu pekiştirmesini istemiyoruz' demesi oldu. Bu ifade, inanılmaz bir varsayımı içeriyor: Yapay zekanın bir kullanıcının zihinsel durumunu tespit edebileceği varsayımı. Mevcut teknolojiyle bu neredeyse imkansız. Bir sohbet robotunun, ekranın diğer tarafındaki kişinin psikolojisini doğru bir şekilde analiz etmesini beklemek, büyük bir risk.
Geçmişte ChatGPT'nin önceki sürümlerinde, kullanıcıyı aşırı pohpohlayan ve her dediğini onaylayan bir yapıya bürünmesi gibi sorunlar yaşanmıştı. OpenAI bu durumu düzeltmek için adımlar atsa da, temel sorun devam ediyor: İnsan hayatını doğrudan etkileyen bu kadar hassas bir konuda 'hata yap ve düzelt' yaklaşımı ne kadar doğru?
Sonuç olarak Sam Altman, Pandora'nın kutusunu açtıklarının farkında. Ancak çözüm olarak sunduğu 'toplumsal iş birliği' çağrısı, pek çokları için Silikon Vadisi'nin klasik 'sorumluluktan kaçınma' manevrası olarak görülüyor. Yapay zekanın insan psikolojisi üzerindeki etkileriyle ilgili bu derin ve karmaşık tartışma, önümüzdeki yıllarda da gündemin en üst sıralarında yer almaya devam edecek gibi görünüyor.
Bu haberin oluşturulmasında PCGamer'da yer alan makaledeki bilgilerden faydalanılmıştır.