- Un ponte verso il 2027
- Grandi modelli e alti rischi
- Obblighi di trasparenza
- Copyright e rischi sistemici
- Una bozza aperta al dibattito
La Commissione Europea compie un passo avanti verso la regolamentazione dell’intelligenza artificiale con la pubblicazione della prima bozza del codice di condotta per i sistemi di AI per uso generale (GPAI). Diffusa il 14 novembre, questa proposta rappresenta un punto di riferimento per gli sviluppatori di modelli avanzati come GPT-4 di OpenAI, Gemini di Google e LaMDA di Meta. Si tratta di strumenti capaci di affrontare una vasta gamma di compiti, allenati con enormi volumi di dati non categorizzati.
Un ponte verso il 2027
Il codice di condotta, che entrerà in vigore in forma definitiva entro aprile 2025, servirà da guida durante il periodo di transizione fino all’adozione completa degli standard previsti dall’AI Act, tra agosto 2025 e agosto 2027. Sebbene non abbia valore legale, il documento offre agli sviluppatori uno strumento per allinearsi ai principi normativi, rappresentando una prova di conformità utile in caso di contestazioni legali.
Grandi modelli e alti rischi
Seguendo l’approccio basato sul rischio dell’AI Act, il codice di condotta individua i sistemi di AI generale come strumenti ad alto rischio, richiedendo agli sviluppatori di rispettare parametri più stringenti. Tra i criteri per classificare un modello come ad alto impatto, il codice include elementi tecnici e di mercato, come il volume e la qualità dei dati utilizzati, il consumo energetico durante l’addestramento, il livello di autonomia e scalabilità, il numero di utenti registrati (almeno 10.000 commerciali nell’UE) e l’impatto economico sul mercato.
Le aziende che violano le regole comunitarie rischiano sanzioni fino al 3% del fatturato globale o 15 milioni di euro, se superiori.
Obblighi di trasparenza
Il codice impone ai creatori di AI di fornire informazioni dettagliate su:
- Potenza computazionale (soglia fissata a 102510^{25}1025 FLOPs);
- Consumo energetico;
- Risultati dei test e parametri utilizzati;
- Interoperabilità con software e hardware;
- Politiche di uso accettabile, con dettagli su usi consentiti, procedure per segnalare violazioni e impatti sulla privacy.
Copyright e rischi sistemici
Il documento affronta anche il tema del diritto d’autore, suggerendo di verificare la proprietà dei dati utilizzati per l’addestramento e di evitare contenuti protetti o acquisiti illegalmente. Inoltre, fissa una tassonomia dei rischi sistemici, inclusi:
- Rischi cibernetici;
- Usos impropri della tecnologia per scopi militari;
- Manipolazioni dell’informazione;
- Perdita di controllo sul modello;
- Discriminazioni e bias.
Gli sviluppatori sono invitati a mappare i rischi, adottare misure preventive e preparare piani di emergenza. Sono previste semplificazioni per startup e PMI.
Una bozza aperta al dibattito
La bozza del codice, composta da 36 pagine e basata su 430 contributi esterni, sarà discussa da oltre 1.000 enti – tra aziende, università e centri di ricerca – durante un incontro previsto per il 28 novembre. La Commissione ha lasciato aperti molti interrogativi, come la definizione di valutatori terzi qualificati e la classificazione dei rischi cibernetici, riconoscendo che il panorama tecnologico potrebbe evolversi rapidamente.
L’obiettivo è finalizzare il codice entro la primavera 2025, un passo cruciale verso una regolamentazione armonizzata che bilanci innovazione e sicurezza.