«Quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace?». Sono le domande al centro del Messaggio del Papa per la Giornata mondiale della pace, che si celebra il 1° gennaio 2023 sul tema «Intelligenza artificiale e pace» (qui il testo integrale).
«I progressi dell’informatica e lo sviluppo delle tecnologie digitali negli ultimi decenni hanno già iniziato a produrre profonde trasformazioni nella società globale e nelle sue dinamiche», l’esordio di Francesco, secondo il quale «i nuovi strumenti digitali stanno cambiando il volto delle comunicazioni, della pubblica amministrazione, dell’istruzione, dei consumi, delle interazioni personali e di innumerevoli altri aspetti della vita quotidiana». Inoltre, «le tecnologie che impiegano una molteplicità di algoritmi possono estrarre, dalle tracce digitali lasciate su internet, dati che consentono di controllare le abitudini mentali e relazionali delle persone a fini commerciali o politici, spesso a loro insaputa, limitandone il consapevole esercizio della libertà di scelta. In uno spazio come il web, caratterizzato da un sovraccarico di informazioni, possono strutturare il flusso di dati secondo criteri di selezione non sempre percepiti dall’utente», il grido d’allarme del Papa, secondo il quale «l’intelligenza artificiale deve essere intesa come una galassia di realtà diverse e non possiamo presumere a priori che il suo sviluppo apporti un contributo benefico al futuro dell’umanità e alla pace tra i popoli». Di qui la necessità di «agire in modo responsabile e di rispettare valori umani fondamentali come l’inclusione, la trasparenza, la sicurezza, l’equità, la riservatezza e l’affidabilità».
«Non sono vero progresso»
«Gli sviluppi tecnologici che non portano a un miglioramento della qualità di vita di tutta l’umanità, ma al contrario aggravano le disuguaglianze e i conflitti, non potranno mai essere considerati vero progresso» è il monito del Papa, che avverte: «L’intelligenza artificiale diventerà sempre più importante. Le sfide che pone sono tecniche, ma anche antropologiche, educative, sociali e politiche. Promette, per esempio, un risparmio di fatiche, una produzione più efficiente, trasporti più agevoli e mercati più dinamici, oltre a una rivoluzione nei processi di raccolta, organizzazione e verifica dei dati. Occorre essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali, rispettando le istituzioni e le leggi che promuovono lo sviluppo umano integrale», l’imperativo di Francesco, secondo il quale «l’intelligenza artificiale dovrebbe essere al servizio del migliore potenziale umano e delle nostre più alte aspirazioni, non in competizione con essi».
«Non è sufficiente nemmeno presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile – avverte il Papa -. Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati. L’immensa espansione della tecnologia deve quindi essere accompagnata da un’adeguata formazione alla responsabilità per il suo sviluppo – la tesi di Francesco -. La libertà e la convivenza pacifica sono minacciate quando gli esseri umani cedono alla tentazione dell’egoismo, dell’interesse personale, della brama di profitto e della sete di potere. Abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità. La dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace».
L’impiego in «campagne di disinformazione»
Alcuni dispositivi dell’intelligenza artificiale possono «allucinare», cioè «generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi», il grido d’allarme del Papa. «Questo pone un serio problema quando l’intelligenza artificiale viene impiegata in campagne di disinformazione che diffondono notizie false e portano a una crescente sfiducia nei confronti dei mezzi di comunicazione – argomenta Francesco -. La riservatezza, il possesso dei dati e la proprietà intellettuale sono altri ambiti in cui le tecnologie in questione comportano gravi rischi, a cui si aggiungono ulteriori conseguenze negative legate a un loro uso improprio, come la discriminazione, l’interferenza nei processi elettorali, il prendere piede di una società che sorveglia e controlla le persone, l’esclusione digitale e l’inasprimento di un individualismo sempre più scollegato dalla collettività. Tutti questi fattori rischiano di alimentare i conflitti e di ostacolare la pace. Nelle sue molteplici forme l’intelligenza artificiale, basata su tecniche di apprendimento automatico (machine learning), pur essendo ancora in fase pionieristica, sta già introducendo notevoli cambiamenti nel tessuto delle società, esercitando una profonda influenza sulle culture, sui comportamenti sociali e sulla costruzione della pace», l’analisi del Papa: «Sviluppi come il machine learning o come l’apprendimento profondo (deep learning) sollevano questioni che trascendono gli ambiti della tecnologia e dell’ingegneria e hanno a che fare con una comprensione strettamente connessa al significato della vita umana, ai processi basilari della conoscenza e alla capacità della mente di raggiungere la verità. L’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti, ad esempio, non è garanzia di affidabilità».
No alla «dittatura tecnologica»
«La grande quantità di dati analizzati dalle intelligenze artificiali non è di per sé garanzia di imparzialità». Ne è convinto il Papa, che osserva: «Quando gli algoritmi estrapolano informazioni, corrono sempre il rischio di distorcerle, replicando le ingiustizie e i pregiudizi degli ambienti in cui esse hanno origine. Più diventano veloci e complessi, più è difficile comprendere perché abbiano prodotto un determinato risultato. Le macchine “intelligenti” possono svolgere i compiti loro assegnati con sempre maggiore efficienza, ma lo scopo e il significato delle loro operazioni continueranno a essere determinati o abilitati da esseri umani in possesso di un proprio universo di valori», fa notare Francesco, secondo il quale «il rischio è che i criteri alla base di certe scelte diventino meno chiari, che la responsabilità decisionale venga nascosta e che i produttori possano sottrarsi all’obbligo di agire per il bene della comunità». Per il Papa, «ciò è favorito dal sistema tecnocratico, che allea l’economia con la tecnologia e privilegia il criterio dell’efficienza, tendendo a ignorare tutto ciò che non è legato ai suoi interessi immediati»: di qui la necessità di riflettere sul «senso del limite, un aspetto tanto spesso trascurato nella mentalità attuale, tecnocratica ed efficientista, quanto decisivo per lo sviluppo personale e sociale» e di dire no alla «dittatura tecnologica».
«La persona non è un insieme di dati»
«In futuro, l’affidabilità di chi richiede un mutuo, l’idoneità di un individuo ad un lavoro, la possibilità di recidiva di un condannato o il diritto a ricevere asilo politico o assistenza sociale potrebbero essere determinati da sistemi di intelligenza artificiale – denuncia il Papa -. La mancanza di diversificati livelli di mediazione che questi sistemi introducono è particolarmente esposta a forme di pregiudizio e discriminazione», osserva Francesco: «Gli errori sistemici possono facilmente moltiplicarsi, producendo non solo ingiustizie in singoli casi ma anche, per effetto domino, vere e proprie forme di disuguaglianza sociale. Talvolta, inoltre, le forme di intelligenza artificiale sembrano in grado di influenzare le decisioni degli individui attraverso opzioni predeterminate associate a stimoli e dissuasioni, oppure mediante sistemi di regolazione delle scelte personali basati sull’organizzazione delle informazioni».
«Queste forme di manipolazione o di controllo sociale richiedono un’attenzione e una supervisione accurate, e implicano una chiara responsabilità legale da parte dei produttori, di chi le impiega e delle autorità governative», l’appello per scongiurare «improprie graduatorie tra i cittadini. Questi processi artificiali di classificazione potrebbero portare anche a conflitti di potere, non riguardando solo destinatari virtuali, ma persone in carne e ossa – il grido d’allarme del Papa -. Il rispetto fondamentale per la dignità umana postula di rifiutare che l’unicità della persona venga identificata con un insieme di dati».
«Pavimentare le vie della pace»
«Il mondo non ha proprio bisogno che le nuove tecnologie contribuiscano all’iniquo sviluppo del mercato e del commercio delle armi, promuovendo la follia della guerra. Così facendo, non solo l’intelligenza, ma il cuore stesso dell’uomo, correrà il rischio di diventare sempre più artificiale», scrive il Papa. «Le più avanzate applicazioni tecniche non vanno impiegate per agevolare la risoluzione violenta dei conflitti, ma per pavimentare le vie della pace», il monito relativo «alle gravi questioni etiche legate al settore degli armamenti: La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra».
«La ricerca sulle tecnologie emergenti nel settore dei cosiddetti “sistemi d’arma autonomi letali’” incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica», il grido d’allarme di Francesco, che osserva: «I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto “intelligente”, rimane pur sempre una macchina»: di qui la necessità di «garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma. Non possiamo nemmeno ignorare la possibilità che armi sofisticate finiscano nelle mani sbagliate, facilitando, ad esempio, attacchi terroristici o interventi volti a destabilizzare istituzioni di governo legittime», tuona Francesco. In un’ottica più positiva, «se l’intelligenza artificiale fosse utilizzata per promuovere lo sviluppo umano integrale, potrebbe introdurre importanti innovazioni nell’agricoltura, nell’istruzione e nella cultura, un miglioramento del livello di vita di intere nazioni e popoli, la crescita della fraternità umana e dell’amicizia sociale».
Valutare «l’impatto sul lavoro»
«Non si deve permettere agli algoritmi di determinare il modo in cui intendiamo i diritti umani, di mettere da parte i valori essenziali della compassione, della misericordia e del perdono o di eliminare la possibilità che un individuo cambi e si lasci alle spalle il passato», è l’imperativo del Papa. «Non possiamo fare a meno di considerare l’impatto delle nuove tecnologie in ambito lavorativo – l’invito di Francesco -. Mansioni che un tempo erano appannaggio esclusivo della manodopera umana vengono rapidamente assorbite dalle applicazioni industriali dell’intelligenza artificiale. c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti».
«Il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari dovrebbero costituire un’alta priorità per la comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro», l’appello.