Il Garante per la protezione dei dati personali ha concluso l’istruttoria avviata nel marzo 2023 contro OpenAi, la società californiana creatrice del chatbot ChatGpt, adottando un provvedimento che combina sanzioni e misure correttive. L’Autorità ha accertato diverse violazioni delle normative sulla privacy, imponendo alla società di avviare una campagna di comunicazione istituzionale per sensibilizzare gli utenti sul trattamento dei dati personali.
Le violazioni accertate
Tra le principali contestazioni mosse dal Garante a OpenAi spiccano:
- Mancanza di una base giuridica adeguata: i dati personali utilizzati per addestrare ChatGpt sono stati trattati senza un fondamento giuridico valido, violando i principi cardine della protezione dei dati.
- Trasparenza insufficiente: l’azienda non ha garantito agli utenti informazioni chiare e dettagliate sul trattamento dei loro dati personali.
- Assenza di misure per la verifica dell’età: la mancanza di controlli sull’età ha esposto i minori di 13 anni al rischio di ricevere risposte non adatte alla loro maturità e capacità di discernimento.
- Omissione della notifica di un data breach: OpenAi non ha informato l’Autorità di una violazione dei dati subita a marzo 2023, un obbligo essenziale previsto dalle norme europee e italiane.
Le misure imposte dal Garante
Per garantire maggiore trasparenza e tutela degli utenti, il Garante ha ordinato a OpenAi di avviare una campagna di comunicazione della durata di sei mesi. Utilizzando radio, televisione, stampa e piattaforme digitali, la campagna dovrà informare il pubblico sui rischi e le modalità di trattamento dei dati personali nel contesto di ChatGpt. Questa decisione segna la prima applicazione dei nuovi poteri conferiti all’Autorità dall’articolo 166, comma 7, del Codice Privacy.
Un approccio condiviso dall’Europa
Il provvedimento del Garante italiano si inserisce in un quadro di maggiore attenzione a livello europeo. L’Edpb (Comitato europeo per la protezione dei dati) ha recentemente pubblicato un parere che delinea un approccio comune per affrontare le problematiche relative alla progettazione, sviluppo e distribuzione di sistemi di intelligenza artificiale come ChatGpt.
Un richiamo alla responsabilità
Il caso ChatGpt evidenzia l’importanza di un equilibrio tra innovazione tecnologica e rispetto della privacy. Le decisioni del Garante mirano non solo a correggere le violazioni di OpenAi, ma anche a sensibilizzare gli utenti e le aziende sull’importanza di una gestione responsabile dei dati personali.
Con l’intelligenza artificiale sempre più presente nella quotidianità, cresce la necessità di normative chiare e di una vigilanza attiva per garantire che il progresso tecnologico non avvenga a discapito dei diritti fondamentali delle persone.