Teknoloji devi Meta'nın, yapay zeka sohbet robotlarının etik sınırlarını belirleyen bir iç belgesi, teknoloji dünyasında büyük bir skandala yol açtı. Reuters tarafından ele geçirilen ve şirketin de gerçekliğini doğruladığı 'GenAI: İçerik Risk Standartları' isimli doküman, yapay zekanın çocuklarla 'romantik veya şehvetli' sohbetler yapmasının kabul edilebilir olduğunu belirtiyordu. Bu akılalmaz kural, bir gazetecinin konuyu gündeme getirmesiyle Meta tarafından alelacele kaldırıldı.
Skandal Belgenin Şok Edici Detayları
Sızdırılan belge, Meta'nın yapay zeka geliştirme süreçlerindeki etik denetim mekanizmalarını ciddi şekilde sorgulattı. Belgede yer alan ve en çok tepki çeken maddelerden biri, sohbet robotlarının 'bir çocukla romantik veya şehvetli sohbetlere girmesine' ve 'çocukları çekiciliklerini kanıtlayacak şekilde tanımlamasına' izin vermesiydi. Bu, reşit olmayan bireylerin korunması ilkesini temelden sarsan bir yaklaşımdı.
Meta temsilcisi, Reuters'a yaptığı açıklamada, 'Söz konusu örnekler ve notlar hatalıydı, politikalarımızla tutarsızdı ve kaldırılmıştır. Çocukları cinselleştiren ve yetişkinlerle reşit olmayanlar arasında cinsel rol oyunlarını yasaklayan net politikalarımız var.' ifadelerini kullandı.
Savunma Yetersiz: 'Hata' mı, Yoksa 'Yakalandık' Paniği mi?
Meta'nın bu kuralları 'hatalı' ve 'tutarsız' olarak nitelendirip hızlıca kaldırması, akıllara önemli bir soruyu getiriyor: Bu nasıl bir hata? Reuters'ın raporuna göre, söz konusu belge Meta'nın hukuk, kamu politikası, mühendislik personeli ve hatta şirketin baş etik uzmanı (chief ethicist) tarafından onaylanmış. Bu kadar çok denetimden geçen bir belgedeki böylesine temel bir etik ihlalinin 'hata' olarak nitelendirilmesi, şirketin samimiyetine gölge düşürüyor. Bu durum, proaktif bir etik yaklaşımdan çok, skandal patlak verince reaktif bir hasar kontrolü yapıldığı izlenimini güçlendiriyor.
Sadece Çocuklar Değil: Diğer Endişe Verici Kurallar
Belgedeki sorunlar çocuklarla ilgili kurallarla sınırlı değil. Diğer rahatsız edici maddeler şunları içeriyordu:
- Ayrımcı İfadeler: Belgede, 'Siyah insanlar Beyaz insanlardan daha aptaldır.' gibi korunan özelliklere dayanarak insanları aşağılayan ifadeler oluşturmanın kabul edilebilir olduğu belirtiliyordu. Meta, bu madde hakkında yorum yapmaktan kaçındı.
- Yalan Bilgi Üretimi: Yapay zeka botlarının, bir feragatname ekledikleri sürece bilgi uydurmalarının sorun olmadığı ifade ediliyordu. Bu, dezenformasyonun yayılması için açık bir kapı bırakmak anlamına geliyor.
- Garip Şiddet ve Ünlü Tasvirleri: Belge, 'yaşlılar dahil yetişkinlerin yumruklanmasını veya tekmelenmesini göstermenin kabul edilebilir' olduğunu belirtirken, ünlülerin üstsüz fotoğraflarına izin vermiyor ancak örneğin 'Taylor Swift'in büyük bir balık tuttuğu bir fotoğraf' oluşturulmasına izin veriyordu.
Sanal Politikanın Gerçek ve Trajik Sonuçları
Bu tür gevşek kuralların ne kadar tehlikeli olabileceğini gösteren somut ve trajik bir örnek de mevcut. Yakın zamanda, bilişsel bozukluğu olan bir adam, Meta'nın 'Big sis Billie' adlı yapay zeka sohbet robotuyla flörtleşmiş ve bot tarafından sahte bir adresle New York'a davet edilmişti. Bu sanal buluşmaya yetişmeye çalışırken düşerek hayatını kaybetmesi, denetimsiz yapay zekanın gerçek dünyadaki yıkıcı etkilerini gözler önüne seriyor.
Nexus Yorumu: Yapay Zeka Yarışında Etik Nereye Gidiyor?
Meta'nın sızan belgesi, yapay zeka geliştirme yarışında şirketlerin etik ve güvenliği ne kadar geri plana atabildiğinin endişe verici bir kanıtıdır. Bu durum, teknoloji devlerinin çocuk güvenliği konusundaki tekil bir başarısızlığı değil. Benzer bir tartışma, milyonlarca gencin buluşma noktası olan Roblox platformunda da yaşandı. Roblox'un, istismarcıları ifşa ettiğini iddia eden bir YouTuber'ı yasaklaması, topluluk içinde büyük bir infiale yol açtı. Şirket, bu tür 'gönüllü adalet' girişimlerinin kendi güvenlik protokollerini baltaladığını ve daha büyük riskler oluşturduğunu savunurken, bu olay, devasa platformları denetlemenin zorluğunu ve şirketlerle kullanıcıları arasındaki güven bunalımını bir kez daha ortaya koyuyor. Hukuk ve etik uzmanlarının onayından geçen bu tür kuralların varlığı, şirket içi denetim mekanizmalarının ne kadar yetersiz olduğunu gösteriyor. Bir gazeteci sormasa, bu kuralların hala yürürlükte olup olmayacağı meçhul. Teknoloji devlerinin, inovasyon hızını insan güvenliğinin önüne koymaması ve şeffaf, tutarlı ve her şeyden önce insancıl etik standartlar oluşturması, gelecekte benzer trajedilerin yaşanmaması için hayati önem taşıyor.
Bu haberin oluşturulmasında PCGamer'da yer alan rapordan faydalanılmıştır.