Kanada’da gizlilik denetleme kurumları tarafından yürütülen ortak soruşturmada, OpenAI’nin ChatGPT’yi geliştirirken ülkenin gizlilik yasalarına tam olarak uymadığı tespit edildi. Soruşturma bulguları, özellikle kişisel verilerin toplanma ve işlenme süreçlerine odaklandı.
“KİŞİSEL VERİLER GÜVENCESİZ ŞEKİLDE TOPLANDI” İDDİASI
Araştırma raporlarına göre OpenAI’nin, ChatGPT’nin geliştirilmesi aşamasında çok miktarda kişisel veriyi yeterli güvenlik önlemleri olmadan topladığı belirlendi. Bu veriler arasında kullanıcıların sağlık bilgileri, siyasi görüşleri ve çocuklara ait hassas bilgilerin de bulunabileceği ifade edildi.
GİZLİLİK RİSKİ VE YASAL UYUM TARTIŞMASI
Kanada Federal Gizlilik Komiseri Philippe Dufresne, OpenAI’nin bilinen gizlilik sorunlarını çözmeden ChatGPT’yi piyasaya sürdüğünü belirtti. Dufresne, bu durumun kullanıcıları veri ihlalleri ve ayrımcılık riskleriyle karşı karşıya bıraktığını söyledi.
“KANADA YASALARINA UYUM SAĞLANMADI” ELEŞTİRİSİ
Dufresne ayrıca OpenAI’nin, ürünün neden Kanada gizlilik yasalarına uygun şekilde geliştirilmediğine dair yeterli açıklama yapamadığını ifade etti. Bu durum, şirketin yasal sorumlulukları konusunda soru işaretleri oluşturdu.
SORUŞTURMA 2023’TE BAŞLATILDI
Kanada’daki gizlilik otoriteleri, kişisel verilerin izinsiz ve yasa dışı şekilde toplandığına dair şikayetler üzerine 2023 yılında soruşturma başlatmıştı. Son raporlar, incelemenin bulgularını ortaya koyarak tartışmayı yeniden gündeme taşıdı.