Le istruttorie condotte dal Garante privacy italiano su OpenAI dal 2022 trovano ora conclusione. Hanno portato alla luce diverse violazioni in materia di protezione dei dati personali legate al funzionamento di Chatgpt.
Ecco perché il Garante privacy ha sanzionato oggi OpenAI per 15 milioni e, soprattutto, gli ha ordinato di fare sei mesi di campagna informativa agli italiani. Così utenti e non utenti conosceranno meglio i loro diritti in merito a Chatgpt e sull’AI in generale, che usano i loro dati personali per funzionare.
Ed è solo l’inizio perché ora la palla, come scrive il Garante nel presentare il provvedimento, passa all’Europa, che dovrà accertare se le violazioni continuano e come affrontarle.
Le violazioni privacy di Chatgpt
Le principali criticità riguardano la mancanza di trasparenza nei trattamenti dei dati e la violazione dei principi di privacy by design e by default.
Questi aspetti mettono in evidenza problematiche fondamentali nell’approccio di OpenAI alla gestione dei dati personali degli utenti e dei non utenti.
Mancanza di trasparenza nei trattamenti dei dati
Una delle violazioni accertate riguarda l’assenza di un’adeguata informativa sul trattamento dei dati personali. In particolare, OpenAI non ha fornito alcuna informazione preliminare ai non utenti della piattaforma i cui dati sono stati raccolti per addestrare gli algoritmi di ChatGPT. Questa omissione rappresenta una chiara violazione del diritto fondamentale di ogni individuo di essere informato sull’utilizzo dei propri dati personali.
Secondo la normativa europea, l’informativa sulla privacy non è una semplice formalità, ma una condizione essenziale per garantire agli interessati la possibilità di comprendere chi utilizza i loro dati, per quali finalità e con quali modalità. La mancata trasparenza non solo impedisce alle persone di esercitare un controllo effettivo sulla propria identità digitale, ma compromette anche i diritti e le libertà fondamentali degli individui.
Anche gli utenti registrati a ChatGPT non sono stati esenti da criticità. Nonostante abbiano ricevuto un’informativa, questa è risultata lacunosa e poco accessibile. Spesso, infatti, tali informazioni sono nascoste in interfacce progettate per facilitare l’utilizzo del servizio, ma non per garantire un’esperienza realmente consapevole.
Violazione dei principi di privacy by design e by default
Un ulteriore problema emerso riguarda la mancata applicazione dei principi di privacy by design e by default, previsti dal Regolamento Generale sulla Protezione dei Dati (GDPR). La progettazione di ChatGPT non ha tenuto sufficientemente conto della necessità di proteggere i dati personali sin dalla fase di ideazione del servizio. Questa mancanza è particolarmente grave in un sistema che basa il proprio funzionamento sull’elaborazione di enormi quantità di dati personali.
Una progettazione rispettosa di questi principi avrebbe richiesto maggiore attenzione all’identità e alla dignità delle persone. La raccolta e il trattamento dei dati avrebbero dovuto essere limitati al minimo indispensabile, con misure tecniche e organizzative adeguate per garantire la sicurezza e la riservatezza.
Omessa identificazione di una base giuridica
Un altro aspetto critico riguarda l’assenza di una base giuridica chiara per il trattamento dei dati personali. OpenAI, al momento dell’avvio dell’istruttoria, non aveva identificato una base giuridica specifica per la raccolta e l’utilizzo dei dati personali, pratica iniziata già dal 2018 attraverso lo scraping massiccio di informazioni disponibili online.
Questa omissione è significativa: senza una base giuridica chiara, qualsiasi trattamento di dati personali risulta privo di legittimità. Successivamente all’avvio del procedimento, OpenAI ha individuato nel legittimo interesse la base giuridica per tali trattamenti. Tuttavia, la questione della legittimità di questa scelta è stata trasferita all’Autorità Garante irlandese, a seguito dello stabilimento di OpenAI in Europa.
Sanzioni e misure correttive
Le violazioni accertate hanno portato all’irrogazione di una sanzione pecuniaria di 15 milioni di euro. Sebbene questa cifra possa sembrare simbolica rispetto alle risorse di OpenAI, rappresenta comunque un segnale forte sull’importanza di rispettare i diritti alla protezione dei dati personali.
Tuttavia, la misura più significativa adottata dal Garante riguarda l’obbligo imposto a OpenAI di realizzare una campagna di comunicazione su scala nazionale. Questa campagna, della durata di sei mesi, ha l’obiettivo di sensibilizzare il pubblico sul funzionamento di ChatGPT, sulle implicazioni per la privacy e sui diritti esercitabili dagli interessati.
Che succede ora
Il caso ChatGPT è un punto di svolta nella gestione delle questioni legate alla privacy nell’ambito dell’intelligenza artificiale. Le violazioni accertate mettono in luce la necessità di un approccio più responsabile e trasparente da parte delle aziende che operano in questo settore.
Ma ora la palla è nelle mani dell’Europa. Dell’Autorità irlandese, in particolare, a cui è sottoposto il dossier di OpenAI per via della sua sede a Dublino. Dovrà verificare se le violazioni continuano e prendere eventuali provvedimenti, ordinando misure correttine.
Ma sembra chiaro che la questione vada affrontata in modo coordinato in Europa.
“L’Europa dovrà continuare a mostrarsi coerente e determinata nel garantire che i diritti fondamentali degli individui siano tutelati nel bilanciamento con la continua innovazione tecnologica”, spiega Guido Scorza, del garante privacy.
Siamo agli inizi ma comincia a prendere forma una voce comune dell’Ue. “Il Garante irlandese, competente su OpenAI, potrà tenere conto del recente parere Edpb su come trattare i modelli AI alla luce del Gdpr”, aggiunge.
“Il provvedimento del Garante privacy fa da apri fila”, spiega Oreste Pollicino, Professore Ordinario di Diritto Costituzionale e Diritto dei Media “e dimostra che anche singoli Paesi possono agire per difendere la privacy dei propri cittadini. Non solo i Paesi dove ha sede la società indagata, insomma, hanno voce in capitolo”. In altre parole, “forse OpenAI ha sottovalutato le questioni privacy sollevate”; in ogni caso il caso dimostra che “la disciplina europea dello one stop shop non è un modo per bypassare la tutela privacy Ue”, continua Pollicino.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link