Indiana Üniversitesi’ndeki araştırmacılar, X’te kripto para dolandırıcılıklarına karışan binden fazla bottan oluşan bir ağı ortaya çıkardı.
2023’ün ortalarında, Elon Musk’ın Twitter’ı X olarak yeniden markalaştırdığı, ancak akademisyenlere ücretsiz veri erişimini henüz sonlandırmadığı dönemde, bir grup araştırmacı sosyal medyada yapay zeka tarafından üretilen içerikler paylaşan “sosyal bot” hesapların izini sürdü.
Sosyal botlar, sosyal medya platformlarında içerik üretip kullanıcılarla etkileşime giren yapay zeka yazılımları olarak tanımlanıyor.
Indiana Üniversitesi’ndeki araştırmacılar, kripto para dolandırıcılıklarına karışan binden fazla bottan oluşan bir ağı ortaya çıkardı. Ağ, sahte haber sitelerinden birinin adından esinlenilerek “fox8” botneti olarak adlandırıldı.
Araştırmacılar, fox8 ağının buzdağının sadece görünen kısmı olduğunu düşünüyor. Daha yetkin geliştiricilerin bu tür ifşa edici içerikleri filtreleyebileceği ya da etik sınırlamaları kaldırılmış açık kaynak yapay zeka modellerini kullanabileceği belirtiliyor.
ALGORİTMAYI KANDIRAN KOORDİNASYON
Bulgulara göre, Fox8 botları, birbirleriyle ve gerçek kullanıcı hesaplarıyla gerçekçi görünen karşılıklı tartışmalar ve yeniden paylaşımlar yaparak sahte etkileşim oluşturdu. Bu yöntemle X’in öneri algoritmasını kandırarak içeriklerinin daha geniş kitlelere ulaşmasını sağladılar ve kısa sürede yüksek takipçi sayılarına ulaştılar.
Araştırmacılar bu düzeyde koordinasyonun, önceki nesil sosyal botlara kıyasla eşi görülmemiş bir durum olduğunu belirtiyor.
ÜRETKEN YAPAY ZEKA ÇAĞINDA BOT SÜRÜLERİ
Araştırma ekibi, söz konusu hesapları geliştiricilerin yaptığı basit hatalar sayesinde tespit edebildi. Botlar zaman zaman, OpenAI’ın içerik politikalarını ihlal eden istemlere yanıt verirken ChatGPT’nin tipik uyarı mesajlarını aynen paylaşıyordu.
Yapay zeka modelleri, 2022’den bu yana çok daha sofistike bir sosyal ajan neslinin ortaya çıkmasına olanak tanıdı. Ekip tarafından geliştirilen Botometer gibi makine öğrenimi araçları, bu yapay zeka ajanlarını gerçek insan hesaplarından ayırt edemedi. Yapay zeka tarafından üretilmiş içerikleri tespit etmek üzere eğitilmiş modeller bile başarısız oldu.
Üstelik aradan geçen birkaç yılın ardından, kötü niyetli kişi ve kuruluşların çok daha güçlü yapay zeka dil modellerine erişebildiği vurgulanıyor. Aynı dönemde sosyal medya platformlarının içerik denetimini gevşetmesi veya tamamen kaldırması ve etkileşim yaratan içeriklere, gerçek ya da yapay zeka üretimi olmasına bakmaksızın finansal teşvikler sunması, araştırmacılara göre “kusursuz fırtına” ortamı oluşturuyor.
Bu durumun özellikle demokratik seçimlere yönelik yabancı ve yerli etki operasyonları açısından ciddi riskler barındırdığı belirtiliyor. Örneğin yapay zeka tarafından yönetilen bir bot sürüsü, belirli bir siyasi adaya karşı geniş çaplı ve iki partili bir muhalefet varmış gibi sahte bir algı oluşturabilir.
Araştırmayla ilgili The Conversation’da bir yazı kaleme alan ekip üyesi Filippo Menczer, mevcut teknolojinin kötü niyetli aktörlere birden fazla sosyal medya platformunda faaliyet gösterebilen, otonom, uyum sağlayabilen ve koordineli çok sayıda ajan konuşlandırma imkanı tanıdığını belirtiyor.
Bu yeni nesil ajanların, basit ve kalıp halindeki dezenformasyon kampanyalarından çok daha ölçeklenebilir, sofistike ve uyarlanabilir etki operasyonları yürütmesine olanak sağladığı ifade ediliyor.
Bunlar tek tip spam içerikler yerine, büyük ölçekte çeşitli ve inandırıcı içerikler üretilebiliyor. Bot sürüleri, kullanıcıların bireysel tercihlerine ve çevrim içi sohbet bağlamına göre özelleştirilmiş mesajlar gönderebiliyor. Beğeni ve görüntülenme sayıları gibi platform sinyallerine anlık tepki vererek ton, üslup ve içeriği dinamik biçimde uyarlayabiliyor. Bu da çevrim içi kamuoyu algısının manipülasyonunu her zamankinden daha zor tespit edilir hâle getiriyor.
