Meta – il colosso che controlla Facebook, Instagram e WhatsApp – ha ufficialmente annunciato l’avvio dell’addestramento dei propri modelli di intelligenza artificiale generativa utilizzando i contenuti pubblici degli utenti adulti nell’Unione Europea. È una mossa attesa, ma che non manca di suscitare interrogativi sul fronte della tutela dei dati personali.
Cosa farà Meta con i nostri dati
La novità riguarda milioni di cittadini europei: da questa settimana, Meta inizierà a utilizzare i contenuti pubblici che gli utenti condividono volontariamente sulle proprie piattaforme – come post, commenti e immagini visibili a tutti – per addestrare i propri modelli di IA. Oltre a ciò, verranno usate anche le interazioni con Meta AI, il chatbot lanciato di recente in Europa all’interno di app come Messenger, Instagram e WhatsApp.
L’azienda ha chiarito che non verranno utilizzati né i messaggi privati né i dati degli utenti under 18. I minori, almeno per ora, restano esclusi da questa fase di addestramento.
Il fine dichiarato è ambizioso: migliorare la comprensione delle lingue, delle culture e delle specificità europee, affinché l’intelligenza artificiale di Meta sia più “vicina” alle comunità che la utilizzeranno. L’obiettivo, scrive il gruppo, è quello di rendere i modelli “capaci di cogliere sfumature, dialetti, sarcasmo, modi di dire e conoscenze locali”, elementi chiave in un contesto sempre più globale ma culturalmente frammentato.
Un processo partito in ritardo
L’azienda ha manifestato “dispiacere” per il fatto che l’addestramento sui dati europei abbia potuto iniziare solo ora. Il ritardo, secondo Meta, è stato causato da un quadro regolatorio “complesso e nebuloso”, che avrebbe rallentato il lancio rispetto ad altri mercati come gli Stati Uniti. A permettere ora il via libera, spiega il gruppo, è stato l’intervento chiarificatore della Irish Data Protection Commission e dello European Data Protection Board – i due organismi che vigilano sul rispetto delle normative in materia di protezione dei dati nell’UE.
Rischi e implicazioni per gli utenti
Anche se Meta sottolinea la volontà di essere “più trasparente rispetto ad altri operatori del settore” come Google e OpenAI, che già utilizzano dati europei per l’addestramento dei loro modelli, non mancano le criticità.
I rischi principali?
Anzitutto, la perdita di controllo sui propri contenuti pubblici. Una volta acquisiti dai modelli di AI, questi dati potrebbero essere rielaborati e utilizzati in modo difficilmente prevedibile. Gli esperti di privacy mettono in guardia soprattutto sulla possibilità che l’intelligenza artificiale memorizzi in modo persistente frasi o espressioni particolari, generando risposte che, in determinate condizioni, potrebbero rivelare elementi sensibili o violare la riservatezza di determinati utenti.
Un ulteriore elemento di preoccupazione riguarda i cosiddetti “dark patterns”, ovvero quelle pratiche progettuali che rendono difficile per gli utenti esercitare i propri diritti. Nonostante Meta affermi di aver semplificato il modulo per opporsi all’utilizzo dei propri dati, alcune associazioni per i diritti digitali denunciano il rischio che le informazioni fornite agli utenti siano poco chiare o formulate in modo da scoraggiare l’opposizione.
Come difendersi: l’opzione per dire “no”
Meta ha comunque previsto un meccanismo per opporsi all’uso dei propri dati: nei prossimi giorni, tutti gli utenti europei riceveranno notifiche via app e email. Questi avvisi conterranno informazioni dettagliate su quali dati saranno utilizzati e un link a un modulo attraverso il quale sarà possibile esercitare il diritto di opposizione.
Meta garantisce che il modulo sarà “facile da trovare, leggere e compilare”, e che tutte le richieste saranno rispettate, comprese quelle già inviate in passato. È quindi fondamentale prestare attenzione alle notifiche ricevute nei prossimi giorni e agire prontamente se si desidera mantenere il controllo sui propri dati.
Cosa sta succedendo?
L’iniziativa di Meta segna un punto di svolta nell’evoluzione dell’intelligenza artificiale in Europa: per la prima volta, un grande attore tecnologico occidentale esplicitamente annuncia l’uso dei dati pubblici degli utenti europei per addestrare IA generative multimodali (in grado di comprendere testo, voce, immagini e video).
Tuttavia, questo passo in avanti tecnologico richiede anche una maggiore consapevolezza da parte degli utenti e un rafforzamento degli strumenti di tutela messi a disposizione da piattaforme e autorità regolatorie.
La domanda di fondo resta aperta: fino a che punto siamo disposti a cedere porzioni della nostra identità digitale per migliorare gli algoritmi? E a quali condizioni questo può avvenire nel rispetto della nostra libertà e della nostra privacy?