- Schillaci: “L’Ai non va temuta, ma governata”
- Un quadro normativo per un’Ai sicura e affidabile
- Monitoraggio e sorveglianza fondamentali per la sicurezza dell’Ai
Nel settore sanitario, l’intelligenza artificiale (AI) è destinata a crescere rapidamente, con un mercato globale che si stima raggiungerà i 190 miliardi di dollari entro il 2025 e un tasso di crescita annuale del 42%. La pandemia di Covid-19 ha accelerato l’adozione della telemedicina, con l’uso dell’IA in questo ambito aumentato del 150%, evidenziando il potenziale della tecnologia per garantire l’assistenza a distanza.
Durante l’ultima giornata del G7 Salute, tenutasi ad Ancona, l’Ai in sanità è stata al centro delle discussioni. Il tema principale è stato la necessità di costruire una governance solida per affrontare le sfide scientifiche, tecnologiche, etiche e legali legate all’intelligenza artificiale, al fine di garantire un utilizzo sicuro e affidabile di queste tecnologie.
Schillaci: “L’Ai non va temuta, ma governata”
Il ministro della Salute, Orazio Schillaci, ha sottolineato l’importanza di non temere l’IA, ma di gestirla attraverso una regolamentazione che metta al centro l’approccio etico e la supervisione umana. “L’intelligenza artificiale non va temuta o contrastata, ma governata, avendo sempre un approccio etico e ricordando che nessuna tecnologia può sostituire la decisione dell’uomo, in questo caso dai medici e dagli operatori sanitari,” ha dichiarato Schillaci durante la conferenza stampa finale del G7 Salute.
Per la prima volta, i Paesi del G7 hanno approvato un ‘policy brief’ dedicato all’uso dell’intelligenza artificiale in ambito sanitario, un passo significativo per la definizione di un quadro normativo condiviso.
Un quadro normativo per un’Ai sicura e affidabile
I ministri della Salute del G7, nel documento conclusivo dell’evento, hanno evidenziato i rischi connessi allo sviluppo incontrollato di sistemi di AI nel settore sanitario, sia per gli operatori sanitari che per i pazienti. Per questo motivo, sono stati aggiornati i quadri giuridici, integrando i principi dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) sull’Ai, che promuovono un utilizzo innovativo e sicuro della tecnologia, rispettoso dei diritti umani e dei valori democratici.
Il documento ribadisce l’importanza di sostenere lo sviluppo di sistemi di Ai che siano sicuri, trasparenti, tracciabili, incentrati sull’uomo, affidabili e rispettosi dell’ambiente. Particolare attenzione è posta sull’incorporazione dei principi di valutazione delle tecnologie sanitarie per la validazione delle applicazioni di AI, promuovendo il ruolo delle agenzie di Health Technology Assessment (HTA) per una gestione efficiente delle risorse pubbliche destinate alla sanità.
Monitoraggio e sorveglianza fondamentali per la sicurezza dell’Ai
Nel documento viene sottolineata anche la necessità di un monitoraggio costante e di una sorveglianza attenta della sicurezza dei sistemi di IA dopo la loro commercializzazione, considerando la specificità dei software basati su intelligenza artificiale. Questo approccio è fondamentale per garantire che l’IA sia utilizzata in modo responsabile e che i benefici per i pazienti siano massimizzati senza compromettere la sicurezza.
Il G7 Salute ad Ancona ha quindi posto le basi per una gestione coordinata dell’IA nel settore sanitario, evidenziando come la tecnologia possa rappresentare un’opportunità straordinaria per migliorare l’assistenza ai pazienti, a patto che venga regolamentata con criteri chiari e condivisi.