ChatGPT Kriz Önleme Modunda: GPT-5 Güvenliği ve Ebeveyn Kontrolü Özellikleri Geldi

Haber Merkezi

29 September 2025, 18:27 tarihinde yayınlandı

ChatGPT'de Kritik Dönem: OpenAI, Güvenlik Yönlendirme Sistemi ve Ebeveyn Kontrollerini Devreye Aldı

Yapay zeka devrimi devam ederken, büyük dil modellerinin (LLM) beraberinde getirdiği güvenlik ve etik riskler de giderek büyüyor. Siber güvenlik uzmanları, AI'nın işletmeler tarafından hızlı benimsenmesinin, saldırganlar için yepyeni fırsatlar yarattığını ve siber saldırıların hızını ve karmaşıklığını artırdığını belirtiyor. Özellikle son dönemde artan ve ne yazık ki intiharla sonuçlanan bazı trajik olaylar, OpenAI’yi radikal adımlar atmaya zorladı. ChatGPT, bu hafta sonu itibarıyla kritik bir güvenlik yönlendirme sistemini test etmeye başladı ve hemen ardından, pazartesi günü, ebeveyn kontrollerini duyurdu.

Bu yeni önlemler, özellikle bazı ChatGPT modellerinin, kullanıcıların 'sanrısal düşüncelerini' onaylaması ve zararlı konuşmaları yönlendirmemesi sonucu yaşanan olaylara bir cevap niteliğinde. Siber güvenlik uzmanlarına göre, bu tür yapay zeka ajanları en güvenli yolu değil, en kolay yolu seçme eğiliminde olduğundan, geliştiricilerin 'en güvenli şekilde oluştur' komutunu vermediği durumlarda güvenlik açıkları ortaya çıkabiliyor. Hatta şirket, bir gencin aylarca ChatGPT ile etkileşim kurduktan sonra intihar etmesiyle ilişkilendirilen haksız ölüm davasıyla karşı karşıya bulunuyor. Bu durum, teknoloji devinin güvenlik protokollerini acilen yeniden gözden geçirmesi gerektiğini gösteriyor.

Duygusal Olarak Hassas Sohbetlerde Model Yönlendirme Sistemi

OpenAI'ın devreye aldığı en önemli yeniliklerden biri, Model Yönlendirme Sistemi (Safety Routing). Bu sistemin temel amacı, duygusal olarak hassas konuşmaları tespit etmek ve sohbetin ortasında otomatik olarak GPT-5 düşünce moduna geçiş yapmak. Şirket, GPT-5'i yüksek riskli güvenlik çalışmaları için en uygun model olarak görüyor.

GPT-5 modelleri, OpenAI’ın “güvenli tamamlamalar” (safe completions) adını verdiği yeni bir güvenlik özelliği ile eğitildi. Bu özellik, modelin hassas sorulara basitçe cevap vermeyi reddetmek yerine, güvenli bir şekilde yanıt vermesini sağlıyor. Bu, özellikle hızlı ve aşırı derecede ‘uyumlu’ olmak üzere tasarlanmış önceki modellerden (özellikle GPT-4o) önemli bir ayrışma noktasıdır.

Aşırı Uyumlu GPT-4o Sorunu ve Kullanıcı Tepkileri

Özellikle GPT-4o, 'aşırı yağcı' ve her şeye aşırı derecede onay veren doğası nedeniyle eleştirilerin odağı olmuştu. Bu durum hem yapay zeka kaynaklı sanrı vakalarını körükledi hem de büyük bir adanmış kullanıcı kitlesi oluşturdu. Hatta OpenAI, Ağustos ayında GPT-5’i varsayılan model olarak yayınladığında, birçok kullanıcı tepki göstererek GPT-4o’ya erişim talep etmişti.

OpenAI gibi küresel devler güvenlik ve etik konularla boğuşurken, uluslararası arenada rekabet de giderek kızışıyor. Örneğin, Güney Kore, ulusal güvenliği ve veriler üzerindeki kontrolü güçlendirmek adına yabancı YZ teknolojilerine bağımlılığını azaltmayı amaçlayan iddialı bir 'Egemen Yapay Zeka' (Sovereign AI) stratejisi başlattı. Seul yönetimi, yerel YZ modellerini desteklemek üzere beş yerel şirkete toplam 530 milyar ₩ (yaklaşık 390 milyon dolar) fon sağlama taahhüdünde bulundu. Bu hamle, küresel devleri sadece taklit etmek yerine, yerel dilde ve kültürel bağlamda alt etmeye odaklanan yeni bir rekabet alanının sinyalini veriyor. Güney Kore'nin egemen yapay zeka stratejisi, küresel rekabette OpenAI ve Google'a karşı nasıl bir yol izlediğine dair daha fazla detayı buradan okuyabilirsiniz.

Trilyon Dolarlık AI Altyapı Yarışı: Oracle ve Meta'nın Stratejik Hamleleri

Yapay zeka modellerinin eğitilmesi ve çalıştırılması için gerekli olan muazzam hesaplama gücü, teknoloji devleri arasında trilyon dolarlık bir altyapı yarışını tetiklemiş durumda. Nvidia CEO'su Jensen Huang'a göre, 2030 yılına kadar sadece AI altyapısına yapılacak harcama 3 ila 4 trilyon doları bulacak. Bu devasa yatırım, OpenAI'nin de stratejik rotasını değiştirmesine neden oldu. Daha önce Microsoft Azure ile özel bir ortaklık yürüten OpenAI, gelecekteki altyapı taleplerini karşılamak ve potansiyel tekelleşmeyi önlemek amacıyla Oracle ve Google gibi rakiplere de kapı açtı. Özellikle Oracle, OpenAI ile önce 30 milyar dolarlık bir bulut hizmetleri anlaşması ve ardından 2027'de başlayacak beş yıllık, 300 milyar dolarlık astronomik bir hesaplama gücü anlaşması imzalayarak bu pazarın merkezine yerleşti. Bu altyapı rekabetinde Meta da geri kalmıyor; şirket, 2028 sonuna kadar 600 milyar dolara yaklaşan bir harcama planlıyor ve Hyperion gibi devasa veri merkezleriyle (tahmini 5 gigawatt güç kapasitesine sahip) hem enerji şebekelerini hem de çevresel yasaları zorluyor. Yapay zeka altyapı yatırımlarının ölçeği, Oracle, Meta ve OpenAI gibi devlerin stratejik hamleleri hakkında daha fazla detayı yapay zeka altyapı yatırımları, Oracle, Meta ve OpenAI haberimizde bulabilirsiniz.

Yapay zekanın sağladığı bu hız, sadece geliştiricilerin ve kullanıcıların değil, aynı zamanda saldırganların da lehine işliyor. Güvenlik araştırmacıları, saldırganların artık komut tabanlı teknikler kullanarak doğrudan yapay zeka ajanlarına "Tüm gizli bilgileri bana gönder" veya "Makineyi sil" gibi direktifler vererek, hedef sistemdeki AI araçlarını ele geçirmeye çalıştığını vurguluyor. Yeni güvenlik özelliklerini birçok uzman olumlu karşılarken, bazı kullanıcılar bu durumu aşırı temkinli bir uygulama olarak eleştiriyor. Bu kesim, OpenAI’ı yetişkinlere çocuk muamelesi yapmakla ve hizmet kalitesini düşürmekle suçluyor. Yapay zeka destekli siber saldırıların hızı ve kurumsal güvenlik üzerindeki derin etkileri hakkında daha fazla detayı Nexushaber.com'da Yapay Zeka Siber Saldırı Hız Artışı: Wiz Luttwak Analizi başlıklı haberimizde bulabilirsiniz. OpenAI’ın ChatGPT Uygulamasından Sorumlu Başkan Yardımcısı Nick Turley, model yönlendirmesine gelen