ABD’li yapay zeka firması OpenAI’ın yayınladığı yeni bir blog yazısında ChatGPT’nin gelecek modellerinin biyolojik silah üretiminde kullanılması ihtimalinden duyulan endişeler vurgulandı.

Popüler sohbet botu ChatGPT’yi geliştiren ABD merkezli yapay zeka firması OpenAI, gelecek modellerinin son derece gelişkin olduğunu, hatta yepyeni biyolojik silahlar üretme kapasitesine sahip olabileceğini iddia ediyor. Şirket, yakın zamanda yayınladığı bir blog yazısında, “biyomedikal araştırma ve biyolojik savunma gibi olumlu kullanım senaryolarına sahip” daha gelişmiş modeller inşa ederken, “zararlı bilgilere yönelik engeli koruyarak bilimsel ilerlemeyi mümkün kılmak” arasında ince bir çizgide yürümeyi hedeflediklerini belirtti. Şirketin bu “zararlı bilgi” ifadesiyle yapay zeka modellerinin biyolojik silah üretiminde kullanılması ihtimalini de değerlendirdiği öğrenildi.

AMATÖRLER BİLE YAPABİLİR

OpenAI güvenlik sorumlusu Johannes Heidecke, Axios’a yaptığı açıklamada, gelecek yapay zeka modellerinin kendi başlarına biyolojik silah üretebileceğini düşünmediklerini ama söz konusu araçların, amatörlerin bile bunu yapmasına yardımcı olabileceğini söyledi. Heidecke, “Daha önce var olmamış, tamamen bilinmeyen biyolojik tehditlerin yaratıldığı yeni bir dünyada değiliz henüz. Uzmanların zaten çok aşina olduğu şeylerden daha çok endişeleniyoruz” dedi. OpenAI güvenlik sorumlusu ayrıca, şirketin yeni modellerinin henüz tam olarak hazır olmadığını kabul ederken, “o3 akıl yürütme modelimizin bazı yeni nesil versiyonlarının bu seviyeye ulaşmasını bekliyoruz” ifadelerini kullandı.

ÖNLEM ODAKLI YAKLAŞIM

Şirketin yayınladığı blog yazısında, “Yaklaşımımız önleme odaklıdır” ifadeleri de yer aldı: “Yeterli düzeydeki güvenlik önlemlerine karar vermeden önce bir biyolojik tehdit olayının gerçekleşip gerçekleşmeyeceğini bekleyip görmenin kabul edilebilir olduğunu düşünmüyoruz.” Biyomedikal atılımlara yardımcı olan modellerin kötü aktörler tarafından da istismar edilebileceği konusunda endişeler mevcut. Heidecke’nin deyimiyle, “zararın gerçekleşmesini önlemek” için, bu gelecek modellerin hem insanları herhangi bir tehlikeye karşı uyarmak hem de bu tehlikeleri tanımak için “mükemmele yakın” bir şekilde programlanması gerekiyor. Heidecke’e göre bunun için yüzde 99’luk bir performans bile yeterli olmayacak.