UE: linee guida sulle pratiche di Intelligenza artificiale proibite

La Commissione europea ha pubblicato le nuove linee guida sulle pratiche di intelligenza artificiale vietate dall’AI Act, il regolamento che disciplina l’uso dell’IA nell’Unione Europea. L’obiettivo del provvedimento è bilanciare innovazione e tutela dei diritti fondamentali, garantendo elevati standard di salute e sicurezza. Sebbene non vincolanti, queste linee guida forniscono un quadro interpretativo utile per ridurre l’incertezza legale e agevolare l’adozione di sistemi basati sull’IA.

Classificazione del Rischio nell’AI Act

Entrato parzialmente in vigore lunedì, l’AI Act suddivide i sistemi di intelligenza artificiale in quattro categorie di rischio:

  • Sistemi proibiti: considerati dannosi o discriminatori.
  • Sistemi ad alto rischio: comprendono software per l’assunzione e dispositivi medici, soggetti a regolamentazioni stringenti.
  • Sistemi a rischio moderato: come i chatbot che simulano conversazioni umane, richiedono obblighi di trasparenza.
  • Sistemi a rischio minimo: includono applicazioni come videogiochi e filtri antispam, con requisiti normativi limitati.

La Commissione specifica che le linee guida non sono ancora formalmente adottate e che le decisioni definitive in merito all’applicazione dell’AI Act saranno di competenza della Corte di Giustizia dell’UE.

Pratiche di IA Vietate

Le pratiche proibite dall’AI Act riguardano tecnologie che possono risultare dannose o discriminatorie. Tra queste:

  • Manipolazione subliminale (dark patterns): tecniche che influenzano inconsapevolmente il comportamento degli utenti, limitandone la libertà di scelta.
  • Valutazione sociale (social scoring): sistemi che classificano o penalizzano le persone sulla base di dati estratti da contesti non correlati, con il rischio di conseguenze discriminatorie.
  • Predizione del comportamento criminale: strumenti che valutano il rischio di reati basandosi esclusivamente sulle caratteristiche personali dell’individuo.

Con queste linee guida, l’UE mira a fornire maggiore chiarezza alle aziende e agli sviluppatori di IA, assicurando un utilizzo responsabile e conforme ai principi etici e legali stabiliti dall’AI Act.