AI Act, dal 2 febbraio partono i divieti. Vediamo quali

AI-Act

A partire dal 2 febbraio 2025, entreranno in vigore nell’Unione Europea specifici divieti riguardanti l’utilizzo di determinati sistemi di intelligenza artificiale (IA), come stabilito dall’AI Act, il regolamento europeo dedicato alla gestione dei rischi associati all’IA. Queste restrizioni mirano a proteggere la salute, la sicurezza e i diritti fondamentali dei cittadini europei.

Definizione di Sistema di Intelligenza Artificiale

artificial intelligence, brain, think-4111582.jpg

Secondo l’articolo 3 dell’AI Act, un sistema di IA è definito come “un sistema automatizzato, progettato per funzionare con livelli di autonomia variabili, che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Categorie di Sistemi di IA Vietati

L’articolo 5 dell’AI Act identifica specifiche categorie di sistemi di IA il cui utilizzo sarà proibito nell’UE a partire dal 2 febbraio 2025. Questi includono:

  • Manipolazione Subliminale: Sistemi che utilizzano tecniche subliminali per influenzare il comportamento di individui o gruppi, inducendoli a prendere decisioni che altrimenti non avrebbero preso, causando o potenzialmente causando danni significativi.
  • Sfruttamento di Vulnerabilità: Sistemi che approfittano di vulnerabilità legate all’età, disabilità o situazione socioeconomica per influenzare il comportamento, causando o potenzialmente causando danni significativi.
  • Social Scoring: Sistemi che valutano o classificano persone o gruppi basandosi sul comportamento sociale o su caratteristiche personali, portando a trattamenti ingiustificati o sproporzionati.
  • Profilazione Criminale: Sistemi che valutano il rischio che una persona commetta un reato basandosi esclusivamente sulla profilazione o sulla valutazione dei tratti della personalità. Questo divieto non si applica ai sistemi utilizzati a supporto della valutazione umana del coinvolgimento in attività criminali basate su fatti oggettivi e verificabili.
  • Riconoscimento Facciale: Sistemi che creano o ampliano database di riconoscimento facciale attraverso la raccolta non autorizzata di immagini da internet o da filmati di telecamere a circuito chiuso.
  • Inferenza delle Emozioni: Sistemi che deducono le emozioni di una persona in contesti come il luogo di lavoro o istituti di istruzione.

Sanzioni per la Non Conformità

A partire dal 2 agosto 2025, le autorità nazionali degli Stati membri dell’UE avranno la facoltà di imporre sanzioni significative per la violazione di questi divieti. Le multe possono raggiungere i 35 milioni di euro o il 7% del fatturato mondiale dell’azienda, a seconda di quale sia l’importo maggiore, come previsto dall’articolo 99(3) dell’AI Act.

Implicazioni per le Aziende e gli Sviluppatori

Le aziende e gli sviluppatori che operano nel settore dell’IA devono prestare particolare attenzione a queste nuove normative. È essenziale valutare i propri sistemi e processi per garantire la conformità ai requisiti dell’AI Act, evitando l’uso di tecnologie proibite e implementando misure adeguate per mitigare i rischi associati all’IA.

Proteggere i diritti e la sicurezza dei cittadini europei

L’entrata in vigore dei divieti previsti dall’AI Act rappresenta un passo significativo verso una regolamentazione più rigorosa dell’intelligenza artificiale nell’Unione Europea. Le organizzazioni devono essere proattive nell’assicurare la conformità, adottando pratiche responsabili e trasparenti nell’uso dell’IA, al fine di proteggere i diritti e la sicurezza dei cittadini europei.