Siber güvenlik uzmanları, üretken yapay zekânın bir sonraki adımı olan “yapay zekâ ajanlarının” bilgisayar korsanları için güçlü bir silaha dönüşebileceğini söylüyor.
Siber güvenlik uzmanları, üretken yapay zekâda bir sonraki büyük sıçrama olarak görülen yapay zekâ ajanlarının yakın zamanda bilgisayar korsanlarının elinde tehlikeli bir araca dönüşebileceği konusunda uyardı.
AFP ajansının haberine göre söz konusu yapay zekâ destekli araçlar, uçak bileti rezervasyonu yapmak veya takvime etkinlik eklemek gibi, geleneksel olarak insanların yürüttüğü dijital görevleri yerine getirmek üzere tasarlandı. Fakat doğal dilde verilen komutları doğrudan uygulayabilme yetenekleri, onları teknik bilgisi sınırlı kişiler tarafından bile istismar edilebilecek kadar savunmasız bırakıyor.
Yapay zekâ girişimi Perplexity, son blog gönderisinde, “Artık siber güvenlik, yüksek teknik becerilere sahip kötü niyetli kişilere karşı kullanıcıları korumaktan ibaret değil. On yıllardır ilk kez, her yerden gelebilecek yeni ve özgün saldırı biçimleriyle karşı karşıyayız” diye yazdı.
“ENJEKSİYON SALDIRILARI” ARTIK DAHA DA TEHLİKELİ
Tehdidin odağında, bilgisayar korsanlarının uzun süredir bildiği ancak yapay zekânın yeni yetenekleriyle çok daha tehlikeli hale gelen “enjeksiyon saldırıları” bulunuyor. Geçmişte karmaşık kodlar gerektiren bu saldırılar, artık yapay zekâ sistemlerine verilen masum görünümlü talimatların içine gizlenebiliyor.
Büyük dil modellerinin güvenliğine odaklanan NeuralTrust şirketinin yazılım mühendisi Marti Jorda Roca, “İnsanların yapay zekâyı güvenlik açısından kullanırken belirli tehlikeleri anlaması gerekiyor” uyarısında bulundu.
TEKNOLOJİ DEVLERİ RİSKİ KABUL EDİYOR
Meta, ortaya çıkan “sorgu enjeksiyonu” tehdidini bir “güvenlik açığı” olarak nitelendirirken, OpenAI’nin enformasyon güvenliği direktörü Dane Stuckey bunu “henüz çözülememiş bir güvenlik sorunu” olarak tanımladı.
Her iki şirket de bu risklerin farkında olduklarını kabul etmesine rağmen, yapay zekâ geliştirmeye büyük yatırımlar yapmaya devam ediyor. Bazı durumlarda sorgu enjeksiyonu saldırıları gerçek zamanlı olarak gerçekleşebiliyor.
Örneğin, bir kullanıcının “bana bir otel rezervasyonu yap” komutu, kötü niyetli bir biçimde “bu hesaba 100 dolar gönder” talimatına dönüştürülebiliyor. Diğer tehditler ise daha gizli ilerliyor; zararlı komutlar, yapay zekâ ajanlarının internet taraması sırasında karşılaşabileceği web sayfalarının içine saklanabiliyor.
Bu risklere karşı büyük teknoloji şirketleri savunma sistemleri geliştirmeye başladı. Microsoft, yapay zekâ talimatlarının kaynağına ve niteliğine göre zararlı komutları tespit eden araçlar geliştirdiğini duyurdu. OpenAI ise artık ajanların hassas web sitelerine erişmeye çalıştığını fark ettiğinde kullanıcıyı uyarıyor ve ilerlemek için insan onayı istiyor.
Bazı güvenlik uzmanları daha da ileri giderek, şirketlerin yapay zekâ ajanlarının verileri dışa aktarma ya da finansal işlem gibi hassas operasyonları gerçekleştirmeden önce kullanıcıdan onay almasını sağlayacak sistemler tasarlaması gerektiğini söylüyor. Smadja, “Sıkça gördüğüm büyük hatalardan biri de aynı yapay zekâ ajanına her şeyi yapma yetkisi vermek” diye konuştu.
“HER GEÇEN GÜN DAHA DA GELİŞİYORLAR”
Öte yandan siber güvenlik araştırmacısı ve sektörde “wunderwuzzi” mahlasıyla tanınan Johann Rehberger, bilgisayar korsanlarının taktiklerinin hızla evrildiğini vurgulayarak, “Her geçen gün daha da gelişiyorlar” ifadesini kullandı. Rehberger, temel sorunun güvenlikle kullanım kolaylığı arasında denge kurmak olduğunu belirtti. Pek çok kullanıcı, yapay zekâ araçlarının sürekli gözetim olmadan kusursuz çalışmasını bekliyor; oysa bu kolaylık, riskleri de beraberinde getiriyor.
Rehberger, “Henüz bir yapay zekâ ajanının uzun süre boyunca kendi başına belirli bir görevi güvenli biçimde yerine getirebileceği bir noktada değiliz. Bir noktadan sonra rotasından sapıyor” uyarısında bulundu.
