OpenAI tarafından geliştirilen ve sağlık–wellness odaklı yeni araç ChatGPT Health, kullanıcıları tıbbi kayıtlarını ve kişisel sağlık verilerini platforma yüklemeye teşvik ediyor. Ancak siber güvenlik ve hukuk uzmanları, bu verilerin mevcut sağlık gizliliği yasaları kapsamında korunmadığı uyarısında bulunarak kullanıcıları dikkatli olmaya çağırıyor.

Sağlık Verileri Tek Platformda Toplanıyor

OpenAI, ChatGPT kullanıcılarının en yoğun ilgi gösterdiği alanlardan birinin sağlık olduğunu belirterek ChatGPT Health’i duyurdu. Yeni araç sayesinde kullanıcılar; tahlil sonuçlarını, doktor raporlarını, akıllı saatlerden veya fitness uygulamalarından gelen verileri tek bir çatı altında toplayabiliyor. Sistem, bu bilgiler doğrultusunda öneriler sunabiliyor ancak tanı ya da tedavi sağlamıyor.

Türkiye ve Avrupa’da Kullanıma Açılmadı

ChatGPT Health şu aşamada yalnızca ABD’de erişime açık durumda. OpenAI, hizmetin kademeli olarak yaygınlaştırılacağını açıklasa da, Avrupa Birliği ülkeleri ve Türkiye henüz kapsam dışında. Uzmanlara göre bunun temel nedeni, veri güvenliği ve hukuki belirsizlikler. ABD’de sağlık verilerini koruyan temel düzenleme olan HIPAA, yalnızca doktorlar, hastaneler ve resmî sağlık hizmeti sağlayıcılarını kapsıyor. Drexel Üniversitesi’nden Robert D’Ovidio’ya göre OpenAI bu tanımın dışında kalıyor. Bu da kullanıcıların ChatGPT Health’e yükledikleri veriler için yasal koruma haklarına sahip olmadığı anlamına geliyor.

“Doktorun Sahip Olduğu Yükümlülükler Yok”

Denver Üniversitesi Bilgisayar Bilimleri Bölümü’nden Nathan Evans, ChatGPT’nin bir kullanıcının ciddi bir hastalığı olduğunu anlayabilecek kapasitede olmasına rağmen, bu bilgileri korumak zorunda olan bir sağlık kurumu gibi yasal yükümlülük taşımadığını vurguluyor. Evans’a göre en büyük risk, şirket politikalarının gelecekte değişebilmesi ve bunu denetleyen bağımsız bir mekanizmanın bulunmaması.

Siber Saldırılar İçin Cazip Hedef

OpenAI, sağlık verileri için özel şifreleme, veri izolasyonu ve segmentasyon uygulandığını açıklasa da, uzmanlar veri ihlali riskinin tamamen ortadan kaldırılamayacağı görüşünde. D’Ovidio, büyük hacimli sağlık verilerinin siber suçlular için son derece cazip bir hedef haline gelebileceğini belirtiyor.

“Veriyi Yüklediğiniz Anda Kontrolü Kaybedersiniz”

Kuzey Karolina Üniversitesi’nden Cori Faklaris, sağlık verilerinin paylaşılmasının geri dönüşü zor bir karar olduğunu vurguluyor. Faklaris’e göre veriler sistemden silinse bile, bunun gerçekten tamamen yok edildiğinden emin olmak son derece güç.

AB’nin Yokluğu Dikkat Çekiyor

ChatGPT Health’in Avrupa’da sunulmaması, uzmanlara göre tesadüf değil. Avrupa Birliği’nin GDPR olarak bilinen güçlü veri koruma düzenlemesi, bu tür hizmetlerin önüne ciddi yükümlülükler koyuyor. Evans, ABD’de benzer kapsamlı bir federal gizlilik yasası bulunmamasının bu hizmetin daha kolay devreye alınmasını sağladığını ifade ediyor. Uzmanlar, yapay zekânın “halüsinasyon” olarak bilinen yanlış bilgi üretme riskine de dikkat çekiyor. Sağlık gibi hassas bir alanda hatalı bilgi verilmesinin ciddi sonuçlar doğurabileceği vurgulanırken, AI tabanlı araçların yalnızca destekleyici nitelikte kullanılabileceği belirtiliyor.

Güvenlik Önlemleri Şart

ChatGPT Health’i kullanmayı tercih edenlere güçlü ve benzersiz şifre kullanmaları, iki aşamalı doğrulamayı etkinleştirmeleri ve sağlık verilerini birden fazla platforma yüklemekten kaçınmaları tavsiye ediliyor. Uzmanlara göre, veri paylaşılan her yeni platform riski katlayarak artırıyor.

Kaynak: Oksijen