Intelligenza artificiale: il Papa: “sia al servizio di uno sviluppo più sano, più umano, più sociale”

Messaggio ai potenti riuniti a Davos, attenzione a non usarla per promuovere ‘paradigma tecnocratico’. “L’’intelligenza artificiale deve essere messa al servizio di uno sviluppo più sano, più umano, più sociale e più integrale”. Lo ammonisce il Papa nel messaggio inviato a Klaus Schwab, Presidente del World Economic Forum, in occasione del raduno annuale in corso a DavosKlosters, in Svizzera, fino a domani. “Il tema dell’incontro di quest’anno del Forum economico mondiale, “Collaboration for the Intelligent Age”, offre una buona opportunità per riflettere sull’Intelligenza Artificiale come strumento non solo di cooperazione, ma anche per fare riunire i popoli”, scrive il Pontefice.

I pericoli secondo Bergoglio

Nel messaggio, Bergoglio mette in guardia sui pericoli: “Esiste il pericolo che l’IA venga usata per promuovere il “paradigma tecnocratico”, secondo il quale tutti i problemi del mondo possono essere risolti con i soli mezzi tecnologici. In questo paradigma, la dignità e la fraternità umana sono spesso subordinate alla ricerca dell’efficienza, come se la realtà, la bontà e la verità emanassero intrinsecamente dal potere tecnologico ed economico. Tuttavia, la dignità umana non deve mai essere violata a favore dell’efficienza. Gli sviluppi tecnologici che non migliorano la vita di tutti, ma che invece creano o aumentano disuguaglianze e conflitti, non possono essere definiti vero progresso. Perciò l’IA deve essere messa al servizio di uno sviluppo più sano, più umano, più sociale e più integrale”.

Servono diligenza e vigilanza

“Per gestire le complessità dell’IA, – osserva il Papa nel messaggio ai potenti del mondo riuniti a Davos – i governi e le aziende devono esercitare la dovuta diligenza e vigilanza. Devono valutare in modo critico le singole applicazioni dell’IA in particolari contesti al fine di determinare se l’uso della stessa promuove la dignità umana, la vocazione della persona umana e il bene comune. Come accade per molte tecnologie, gli effetti dei diversi usi dell’IA possono non essere sempre prevedibili dal principio. Man mano che l’applicazione dell’IA e il suo impatto sociale diventano più evidenti nel tempo, occorre adottare risposte adeguate a tutti i livelli della società, secondo il principio di sussidiarietà, con singoli utilizzatori, famiglie, società civile, aziende, istituzioni, governi e organizzazioni internazionali che si adoperano al livello a loro proprio per assicurare che l’IA sia volta al bene di tutti. Oggi ci sono importanti sfide e opportunità laddove l’IA viene posta in un quadro di intelligenza relazionale, dove ognuno condivide la responsabilità per il benessere integrale degli altri”.