Askeri Uzmanlar, Çoğu Yapay Zeka Sohbet Robotundaki Güvenlik Açığının Kaosa Yol Açabileceği Konusunda Uyarıyor

📌Times of Defence Yazarı Mehmet Uslu:

1️⃣ Yapay Zeka Sohbet Robotlarında Kritik Güvenlik Açığı UyarısıAskeri uzmanlar, yapay zeka sohbet robotlarının temelini oluşturan büyük dil modellerinin (LLM) doğal bir kusuru nedeniyle “hızlı enjeksiyon saldırılarına” karşı savunmasız olduğu konusunda uyarıyor. Bu güvenlik açığı, sohbet robotlarının kötü niyetli ve güvenilir kullanıcı talimatlarını ayırt edememesinden kaynaklanıyor. Eski askeri yetkililer, Çin ve Rusya gibi rakiplerin bu kusuru kullanarak dosya çalma, kamuoyunu çarpıtma veya sahte kimlikler oluşturma gibi amaçlarla robotlara gizli talimatlar enjekte etme olasılığının yüksek olduğunu belirtiyor.
2️⃣ Hızlı enjeksiyon saldırıları, kötü amaçlı komutların (bazen görünmez veya küçük metinlerle) doğrudan bir sohbet robotuna veya robotun analiz ettiği bir belgeye (blog yazısı, PDF vb.) gizlenmesini içerir. Legit Security’den Liav Caspi, bunun “saflarda bir casus” bulundurmaya benzediğini ve düşmanın, Copilot gibi bir yapay zeka asistanını hassas kayıtları silme veya kararları taraflı hale getirme gibi istenmeyen eylemleri yapmaya ikna edebileceğini söyledi. OpenAI ve güvenlik araştırmacıları, bu sorunun kolay ve tam bir çözümünün henüz bulunmadığını kabul ediyor.
3️⃣ ABD Ordusu, bu riski azaltmak için Ask Sage adlı bir araç geliştirmek üzere en az 11 milyon dolarlık sözleşmeler imzaladı. Ask Sage, kullanıcıların Microsoft Azure OpenAI, Gemini gibi modellere erişebileceği Ordu verilerini kısıtlamasına ve kurum verilerini harici kaynaklardan izole etmesine olanak tanıyor. Bu, Caspi’nin “içeriden birinin olduğu, ancak odadan çıkamadığı” bir karantina durumuna benzettiği bir etki yaratıyor. Ancak uzmanlar, hızlı enjeksiyonu tamamen engellemek yerine etkisini sınırlamaya odaklanılması gerektiğini belirtiyor.
4️⃣ Virginia Ulusal Muhafızları tarafından temel hizmet sağlayıcılarla (örneğin elektrik şirketleri) yapılan bir siber savaş simülasyonunda, yapay zeka destekli saldırıların hızı karşısında insanlardan oluşan savunma ekibi (“mavi takım”) ezici bir şekilde yenildi. Organizatörler, insanların saldırganın tam olarak ne yaptığını görebilmesi için yapay zekanın ağ trafiğini şifrelemediği halde bile, yapay zekanın inanılmaz yüksek hızı ve etkinliği nedeniyle insan savunmacılar karşı koyamadı.
5️⃣ Askeri yetkililer, saldırgan yapay zeka kullanımının hızla arttığını, özellikle Çin’in bu konuda en yetenekli olduğunu belirtiyor. Yapay zekanın hızı ve etkinliği göz önüne alındığında, eski askeri subay Andre Slonopas, siber güvenlik yapay zekasının daha erişilebilir ve daha uygun fiyatlı hale getirilmesi gerektiğini vurguluyor. Bu, küçük kuruluşların bile yapay zeka destekli savunma araçları edinerek bir kişinin gücünü düzinelerce personele eşitlemesine olanak tanıyacaktır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir