(ASI) New York – Hanno fatto scalpore le recenti immagini di Papa Francesco avvolto in un costoso piumino bianco o di Donald Trump con la divisa da carcerato. Ma questo è solo l’inizio.
In entrambi i casi si è accertato trattarsi di immagini false, create dall’intelligenza artificiale (IA). Eppure, ciò sembra essere nient’altro che la punta dell’iceberg. Perché oggi l’IA è in grado di spingersi ben oltre, arrivando ad esempio a elaborare in breve tempo intere tesi di laurea.
Le potenzialità dei programmi informatici sono praticamente illimitate e si evolvono giorno dopo giorno. Il mondo dell’informazione non poteva certo uscirne indenne, nel bene e nel male. Lo dimostra un’interessante indagine pubblicata lo scorso 1° maggio dall’americana “NewsGuard”, organizzazione di giornalisti ed esperti impegnati a combattere la diffusione di notizie false.
Nel mese di aprile, gli analisti hanno condotto una ricerca su molteplici testate giornalistiche presenti su Internet. Per farlo si sono serviti dei motori di ricerca Google e Bing, quest’ultimo di proprietà del colosso Microsoft. Hanno navigato in rete inserendo una serie di parole chiave largamente utilizzate dai programmi di intelligenza artificiale. Una volta individuati i portali, hanno fatto esaminare gli articoli giornalistici in essi contenuti da uno strumento addestrato a riconoscere il linguaggio dell’IA.
Il risultato è a dir poco sorprendente. I programmi di IA vengono sistematicamente sfruttati per comporre in maniera artificiosa articoli accattivanti. Ogni volta che l’ignaro utente ci clicca per leggerli, non solo accede a informazioni fuorvianti o del tutto false, ma fa arricchire i proprietari dei siti attraverso la pubblicità presente in ampia quantità sulle pagine web. E dietro il malevolo meccanismo la mano umana è pressoché assente.
Nello specifico, “NewsGuard” ha scovato ben 49 siti in 7 lingue differenti – tra cui cinese, francese, inglese e portoghese – che “sembrerebbero essere stati interamente o in gran parte generati da modelli di linguaggio basati sull’intelligenza artificiale progettati per imitare la comunicazione umana”. In altri termini, nonostante i siti si spaccino per testate giornalistiche, i cronisti in carne e ossa probabilmente non li hanno mai visti.
I loro nomi a prima vista si presentano autorevoli – da News Live 79 a Daily Business Post fino a Market News Reports – così come rassicurante appare l’ambizione di trattare importanti argomenti di politica, salute, intrattenimento, finanza, tecnologia. L’aggiornamento dei contenuti è assai costante, con alcuni siti monitorati che arrivano a produrre “centinaia di articoli al giorno”.
Ed ecco palesarsi l’inganno. I siti, infatti, sono pieni di annunci pubblicitari che generano per i proprietari cospicui incassi. L’inconsapevole lettore, invece, ottiene in cambio articoli scritti “con un linguaggio banale e frasi ripetitive”. Espressioni stereotipate e meccaniche come in conclusione ed è importante ricordare ricorrono in abbondanza. Spesso e volentieri nel bel mezzo della pubblicazione compaiono diciture del tipo non posso completare questa richiesta. Tutti segnali inequivocabili, questi, di pezzi compilati automaticamente da programmi di intelligenza artificiale.
Persino la minima supervisione umana risulta assente, dal momento che gli esempi sopra riportati corrispondono alle risposte fornite dagli assistenti digitali ogniqualvolta non riescono a trovare le informazioni richieste dagli utenti. Ai messaggi di errore si alternano quelle che gli esperti definiscono “allucinazioni”, ossia informazioni o dettagli del tutto estranei al tema dell’articolo, presenti nel testo per via di un malfunzionamento dell’algoritmo dell’IA. In altri casi ancora, i siti si limitano a riassumere le notizie provenienti da fonti esterne. L’indagine di “NewsGuard”, ad esempio, ha rilevato un portale che si limita per lo più a riformulare gli articoli editi sul portale della statunitense CNN.
Nell’analizzare i 49 siti, i ricercatori si sono accorti di quanto sia complesso risalire ai proprietari “reali”. Molte volte, infatti, non vi è alcun riferimento alla composizione della redazione. Gli articoli vengono firmati da amministratori ed editori totalmente anonimi. E quando compaiono dei nomi associati a immagini, si tratta di “profili non autentici” o “autori falsi”, spiegano gli esperti. Anche la sezione relativa all’informativa sul trattamento dei dati personali dell’utente – obbligatoria per legge – risulta essere scritta da algoritmi addestrati per comporre avvisi sul diritto d’autore. Ne è prova la genericità e incompletezza delle informazioni fornite.
Insomma, dietro a meccanismi automatici capaci di simulare in modo apparentemente convincente il lavoro di giornalisti veri, si cela la volontà di non specificati soggetti di attrarre l’attenzione dei naviganti per fare cassa con le pubblicità collegate a ciascun articolo. La questione si fa ancor più grave nel momento in cui l’intelligenza artificiale viene impiegata per diffondere notizie destituite di fondamento. E così ai ricercatori di “NewsGuard” è capitato di imbattersi in un pezzo che annunciava il decesso del presidente degli Stati Uniti, Joe Biden. Proseguendo nella lettura, a un certo punto è spuntato un riferimento al linguaggio di OpenAI, la società americana sviluppatrice dell’ormai ben nota ChatGPT. Tuttavia, quando i ricercatori hanno interpellato l’amministratore delegato dell’azienda, non hanno ricevuto alcuna risposta in merito.
Nemmeno i popolarissimi Facebook, Instagram e Twitter sono estranei al fenomeno. Molti dei siti esaminati nel corso dell’indagine, al contrario, sono soliti condividere sui social i contenuti pubblicati. Uno dei portali nel mirino dei ricercatori, ad esempio, vanta ben 124 mila follower su Facebook. Anche in questo caso, alle domande dell’organizzazione la piattaforma di Mark Zuckerberg ha preferito opporre un religioso silenzio.
Non dandosi per vinti, i ricercatori hanno allora tentato di entrare in contatto direttamente con i proprietari dei siti incriminati, servendosi dei recapiti trovati online. Solamente in due hanno risposto confermando, seppur parzialmente, di “aver utilizzato l’intelligenza artificiale per produrre contenuti”. Addirittura in otto casi gli indirizzi di posta elettronica forniti sono risultati “non validi”.
Una cosa è certa: se davvero vogliamo usufruire dei numerosi aspetti postivi dell’intelligenza artificiale, dobbiamo nel contempo rassegnarci a convivere con i suoi lati negativi. Forse, il miglior antidoto alla diffusione di notizie e immagini ingannevoli o false resta la nostra intelligenza. Quella che ci induce a controllare attentamente le fonti, la forma grammaticale dei testi. Quella che ci spinge a riflettere attentamente prima di condividere con i nostri amici i contenuti che ci insospettiscono. Soprattutto, quella che ci suggerisce di consultare sempre più di una fonte e ci stimola a riflettere, a farci un’opinione solo dopo aver confrontato diverse versioni di una medesima notizia.
Marco Sollevanti – Agenzia Stampa Italia