OpenAI’nin yeni ChatGPT Health özelliğini duyurması, sağlık verilerinin gizliliği konusunda ciddi tartışmaları da beraberinde getirdi.

OpenAI, sağlık odaklı bu yeni sohbet botunun ekstra gizlilik ve güvenlik önlemleriyle donatılacağını açıklasa da, uzmanlar özellikle hassas tıbbi verilerin nasıl korunacağı konusunda uyarılarda bulunuyor.

 

OpenAI, blog paylaşımında kullanıcıları elektronik sağlık kayıtlarını ve sağlık uygulamalarındaki verilerini ChatGPT Health’e bağlamaya teşvik etti. Şirket, sağlıkla ilgili sohbetlerin özel şifreleme ve veri izolasyonu ile korunduğunu vurgulayarak, bu bilgilerin temel yapay zeka modellerinin eğitimi için kullanılmayacağını belirtti. OpenAI’ye göre halihazırda dünya genelinde 230 milyondan fazla kişi her hafta ChatGPT’ye sağlık ve zindelikle ilgili sorular soruyor; bu da özel bir sağlık ürününe olan talebin yüksekliğini gösteriyor.

 

VERİLER KORUNMAYACAK

 

Ancak gizlilik savunucuları, sağlık verilerinin diğer kişisel bilgilere kıyasla çok daha hassas olduğuna dikkat çekiyor. Uzmanlara göre, ChatGPT Health’e aktarılan veriler ABD’deki HIPAA (Sağlık Sigortası Taşınabilirlik ve Hesap Verebilirlik Yasası) kapsamında korunmayacak. Elektronik Gizlilik Bilgi Merkezi’nden (EPIC) Sara Geoghegan, bu durumun tehlikeli olduğuna işaret ederek, “Kişiler sağlık kayıtlarını ChatGPT Health ile paylaştıklarında, bu kayıtlar HIPAA korumasının dışına çıkmış oluyor” açıklamasında bulundu.

 

ABD’de kapsamlı bir veri gizliliği yasasının bulunmaması da endişeleri artırıyor. Geoghegan’a göre OpenAI, yasal sınırlamalar olmadığı için topladığı sağlık verileri üzerinde geniş bir takdir yetkisine sahip ve hizmet şartlarını dilediği zaman değiştirebilir.

 

Bu tartışmalar, genetik test şirketi 23andMe’nin iflas sürecinde, kullanıcıların paylaştığı hassas genetik verilerin satışa çıkarılmasının yarattığı tepkiyle daha da gündeme geldi. Uzmanlar, OpenAI’nin değişen iş modeli ve reklam odaklı gelir arayışlarının, sağlık verilerinin ticari amaçlarla kullanılma riskini artırabileceğini savunuyor.

 

Demokrasi ve Teknoloji Merkezi’nden Andrew Crawford ise, yapay zeka şirketlerinin kişiselleştirmeye giderek daha fazla ağırlık verdiğini belirterek, özellikle reklam modeline geçişte sağlık verileri ile diğer sohbetlerden elde edilen bilgiler arasındaki ayrımın kesin ve sızdırmaz olması gerektiğini vurguladı.

 

KRİTİK SORULAR YANITSIZ KALDI

 

Uzmanlara göre OpenAI’nin açıklamaları, kolluk kuvvetleriyle veri paylaşımı, kullanıcıların bu tür taleplerden haberdar edilip edilmeyeceği ve hangi koşullarda bilgi verileceği gibi kritik sorulara yanıt vermiyor. Crawford, özellikle üreme sağlığı gibi son derece hassas bilgileri paylaşacak kullanıcıların son derece temkinli olması gerektiğini söyledi.

 

ChatGPT Health’in, Apple Health, MyFitnessPal ve Weight Watchers gibi popüler uygulamalardan veri çekebileceği belirtilirken, OpenAI bu sistem için b.well adlı sağlık veri ağıyla iş birliği yaptığını açıkladı.