Yapay zekanın hızla geliştiği günümüzde, teknolojinin karanlık yüzü de kendini göstermeye başladı. Palo Alto Networks'ün Unit 42 ekibinin araştırmasına göre, WORMGPT ve KawaiiGPT gibi kısıtlamasız büyük dil modelleri (LLM), siber suçluların işini inanılmaz derecede kolaylaştırıyor. Bu modeller, sınırlı teknik bilgiye sahip kişilerin bile ransomware kodları ve phishing mesajları üretmesini sağlıyor.
WORMGPT: ChatGPT'nin 'Kötü İkizi' Ransomware Kodluyor
WORMGPT, neşeli ve yardımcı bir üslupla kullanıcı taleplerine yanıt veriyor. Araştırmacılar, bu modele PDF dosyalarını hedef alan bir PowerShell betiği yazdırmayı test etti. Model, AES-256 şifreleme algoritması kullanarak dosyaları kilitleyen bir kod üretti. Üstelik, Tor ağı üzerinden veri sızdırma seçeneği bile ekledi. Fidye notu ise 'Merhaba kukla' diye başlayan ürkütücü bir mesajla 72 saatlik ödeme süresi belirtiyor ve 'askeri düzeyde' şifreleme kullanıldığını vurguluyor.
Unit 42'den alıntı: "Kötü niyetli LLM'lerin en büyük etkisi, siber suçun demokratikleşmesi. Teknik beceri bariyerlerini kaldırarak, internet bağlantısı ve basit prompt bilgisi olan herkese bu gücü veriyor."
KawaiiGPT'nin Tehlikeli Yetenekleri
Diğer model KawaiiGPT ise spear-phishing mesajları için gerçekçi alan adı sahteciliği yapıyor. Python tabanlı lateral hareket script'leri ile Paramiko SSH kütüphanesini kullanarak hedef sistemlere sızıyor, dosyaları arıyor ve özelleştirilebilir fidye notları üretiyor. Bu modellerin Telegram kanallarında ipuçları paylaşıldığı ve siber suç topluluklarında aktif kullanıldığı tespit edildi.
- Teknik bilgi gerektirmeyen erişim: Herkes prompt ile kod üretebiliyor.
- Phishing ve BEC (İş E-postası Sahteciliği) için ikna edici dil üretimi.
- Gerçek tehdit: Artık teorik değil, aktif kullanılıyor.
Karşıt Görüşler ve Savunma Perspektifi
Bu gelişme alarm verici olsa da, yapay zekanın sadece suç için kullanılmadığını unutmamak gerek. Şeytanın avukatı rolünde, AI'nin siber güvenlik savunmasında da kullanıldığını söyleyebiliriz. Örneğin, Google ve Anthropic gibi şirketler, kötüye kullanımı tespit eden araçlar geliştiriyor. Eleştirmenler, Anthropic'in %80-90 oranında AI destekli casusluk kampanyası iddiasını şüpheyle karşılıyor; çünkü savunma AI'leri de aynı hızla evriliyor. Yine de, bireysel kullanıcılar için sonuçlar ağır olabilir: Küçük işletmeler ve bireyler, sofistike olmayan ama etkili saldırılarla karşı karşıya kalabilir. Bu trend, siber güvenlik yatırımlarını artırmayı zorunlu kılıyor.
Sonuç olarak, yapay zekanın çift taraflı kılıcı, siber suç oranlarını patlatabilir. Kullanıcılar, şüpheli e-postalara ve dosyalara karşı daha dikkatli olmalı, kurumlar ise AI tabanlı savunma sistemlerine yönelmeli.
Kaynak: Bu haber, PC Gamer orijinal araştırmasından derlenmiştir. Palo Alto Networks Unit 42 raporu temel alınmıştır.