Link: https://www.chiesadimilano.it/news/attualita/il-segno-opinione-intelligenza-artificiale-2764325.html
Sirio 01 - 10 novembre 2024
Share

«Il Segno»

L’intelligenza artificiale e le “mezze verità”

Dal 17 febbraio sarà in vigore la normativa Ue per costringere le grandi piattaforme a ridurre le “fake news” ed essere più trasparenti. Ma l’IA generativa potrebbe vanificare ogni tentativo di regolamentazione. Ecco «L’opinione» del numero di gennaio del mensile diocesano

di Andrea CAROBENE *

24 Gennaio 2024
Una “fake-photo” di papa Francesco

Da Il Segno di gennaio

Le notizie sono queste: papa Francesco si protegge dal freddo con un piumino bianco, e Trump è stato fermato e portato in carcere. A documentare i due avvenimenti altrettante foto, consultabili da chiunque sui motori di ricerca. Peccato che entrambe le immagini siano dei fake, ossia dei falsi generati dall’intelligenza artificiale, con un’accuratezza di dettagli che le rende assolutamente credibili. L’intelligenza artificiale permette infatti di creare fotografie assolutamente verosimili di eventi mai accaduti; e questo è solo un esempio di come le nuove tecnologie possano essere usate per diffondere notizie false, inverosimili o fuorvianti.

Sotto il nome di fake news si indicano infatti tutte quelle notizie che non corrispondono alla realtà, ma che si diffondono come verità attraverso i mezzi di informazione.

Non si tratta di una novità: da sempre sono stati diffusi ad arte, o anche involontariamente, racconti di fatti mai accaduti. I nuovi mezzi di comunicazione e le tecnologie hanno solo reso questa possibilità più efficiente, arrivando a serializzare il processo, con il risultato che oggi esistono vere e proprie fabbriche di fake news.

Diverse sono le origini di questi falsi. In alcuni casi si tratta di leggende metropolitane, che crescono e si diffondono in maniera autonoma, magari ricomparendo a intervalli periodici, come ad esempio la storia della presenza di coccodrilli nelle fogne di New York. In altri casi, si tratta di notizie sparse ad arte per delegittimare un avversario politico o addirittura un intero Paese, come stiamo vedendo nel conflitto tra Russia e Ucraina, dove le fake news sono considerate vere e proprie armi da utilizzare contro il nemico.

La diffusione di notizie false può essere realizzata anche attraverso l’azione di persone che sulla rete, magari dietro account posticci, si incaricano di propagarle il più possibile. A volte, invece, queste possono essere diffuse attraverso programmi che rimbalzano automaticamente le notizie tra i vari follower dei gruppi, che appongono dei like per aumentarne la popolarità, o che utilizzano altre tecniche informatiche allo scopo di rendere i fake il più virali possibile.

Il problema è infatti molto sentito nel mondo di Internet, a causa degli algoritmi che sono alla base dei social media come Facebook, Instagram, X (l’ex Twitter) e così via. Il funzionamento di questi siti rimanda infatti alla cosiddetta “economia dell’attenzione”, ossia il loro guadagno è proporzionale al tempo che l’utente dedica alle diverse pagine, o alle azioni che questo compie, come apporre un like, inviare la notizia ai suoi amici, esprimere un commento e via dicendo. L’obiettivo è quindi quello di mantenere “ingaggiato” l’utente il più a lungo possibile, trattenendolo sulle pagine. Per raggiungere tale obiettivo, queste piattaforme utilizzano i cosiddetti sistemi di raccomandazione: algoritmi – spesso basati sull’intelligenza artificiale e su calcoli statistici – che propongono all’utente proprio quei contenuti sui quali è maggiormente probabile che quest’ultimo si fermerà maggiormente. Il risultato è che si crea una sorta di imbuto, chiamato “camera riverberante”: più a una persona piacciono determinati contenuti, più riceverà informazioni di quel tipo.

L’effetto è però quella di una polarizzazione delle opinioni. Se io sono un terrapiattista, è probabile che riceverò spesso notizie che confermano le mie convinzioni. Il web diventa così il terreno fertile di propagazione di notizie anche assurde, ma che creano comunità di adepti che le considerano vere: «La diffusione della disinformazione non è causata da mancanze degli utenti. È realmente una funzione della struttura stessa dei siti di social media», sottolinea Wendy Wood, docente dell’Università della California meridionale che sulla rivista Proceedings of the national academy of sciences ha studiato con il suo team le modalità di diffusione delle fake news attraverso il web.

I siti di social media sono consci di questo rischio e utilizzano tecniche informatiche basate sull’uso dell’intelligenza artificiale, per distinguere le notizie attendibili dai fake diffusi ad arte. Spesso, però, ci si affida anche a moderatori umani, che hanno il compito di contrastare la diffusione di contenuti vietati, inappropriati, ma anche palesemente falsi. Queste tecniche di fact checking sui social hanno però innescato un dibattito perché, per qualcuno, rischiano di limitare la libertà di parola. È più o meno con questa motivazione che Elon Musk ha così ridotto drasticamente su X la moderazione, riammettendo anche utenti famosi – tra cui lo stesso Trump – a cui era stato levato l’accesso a questi strumenti a causa di comportamenti giudicati contrari alla politica della piattaforma.

Su questa problematica l’Unione europea ha però idee molto chiare. A inizio dicembre la presidenza del Consiglio e i negoziatori del Parlamento europeo si sono accordati sull’AI Act: il regolamento europeo sull’intelligenza artificiale che individua quelle pratiche di intelligenza artificiale i cui rischi sono definiti inaccettabili o alti. Inoltre, il prossimo 17 febbraio entrerà in vigore la Normativa sui servizi digitali: un insieme di norme che hanno l’obiettivo di migliorare la gestione delle informazioni da parte delle piattaforme, combattendo quindi anche le fake news. La normativa mantiene l’idea che le piattaforme non sono in linea di massima responsabili dei contenuti diffusi dagli utenti, ma devono obbligatoriamente rimuoverli se questi si rivelano illegali. Inoltre, in un’ottica di trasparenza, devono illustrare gli algoritmi utilizzati e permettere agli utilizzatori di ricevere notizie non sulla base della loro profilazione.

La norma, quindi, cerca di contrastare la diffusione delle notizie false, ma una nuova problematica sembra sorgere oggi. L’uso dell’intelligenza artificiale generativa, ossia di quei sistemi come ChatGpt, che permetterà sicuramente di creare notizie fake sempre più verosimili e credibili: “mezze verità” capaci di modificare l’opinione pubblica senza che questa ne sia minimamente cosciente. Per questo motivo, diversi gruppi di ricerca in tutto il mondo stanno lavorando ad algoritmi capaci di distinguere sempre meglio ciò che è fake da ciò che non è. A oggi, tuttavia, è difficile dire chi prevarrà, se i diffusori di false notizie, o chi invece lotta per la verità.

* Laureato in fisica, studi di filosofia e teologia, è un esperto di intelligenza artificiale e big data analysis. È Chief technology officer di Baia, società di business intelligence e di intelligenza artificiale

 

Abbonati al mensile e leggi l’articolo completo