(ASI) Strasburgo – Nel corso di una recente sessione plenaria, l’Europarlamento ha compiuto un importante passo avanti sulla regolamentazione dell’intelligenza artificiale (IA). In ballo c’è la promulgazione, entro la fine dell’anno, della prima legge mondiale su un fenomeno sempre più pervasivo, nel bene e nel male.
Il 14 giugno, con 499 voti a favore, 28 contrari e 93 astensioni, i deputati dell’Assemblea di Strasburgo hanno adottato la loro posizione ufficiale sul tema. Il testo ora passa in mano ai governi dell’Unione riuniti nel Consiglio. Solo in seguito alla conclusione delle negoziazioni si arriverà a una legge uniformemente vincolante per tutti gli Stati membri.
Il documento approvato a larga maggioranza intende sfruttare appieno le molteplici implicazioni positive di questa complessa tecnologia, mantenendone tuttavia il controllo saldamente in mano umana. L’idea è che sia l’IA a dover essere al servizio delle persone e della società, non il contrario.
Gli eurodeputati si sono concentrati sui controversi aspetti della sicurezza, riservatezza dei dati personali, trasparenza, non discriminazione, per far sì che l’intelligenza artificiale rispetti in ogni momento “i diritti e i valori su cui si fonda l'Ue”, ivi compresi democrazia, libertà e stato di diritto.
Ne è scaturita una bozza di regolamentazione che impone agli sviluppatori obblighi e controlli proporzionali a tre livelli di rischio per la società: inaccettabile, alto, limitato. Ma vediamo più nel dettaglio il provvedimento.
Innanzitutto, l’Europarlamento ha proposto di mettere al bando i sistemi che – tramite usi “intrusivi e discriminatori” dell'IA – comportano un rischio inaccettabile, ovvero sono considerati una “minaccia per le persone”. È il caso, ad esempio, di meccanismi che analizzano il comportamento degli individui nella società e assegnano ai più virtuosi punti da spendere in agevolazioni economiche. È anche il caso di algoritmi capaci di estrapolare il volto umano dalle registrazioni delle telecamere e creare vere e proprie banche dati per il riconoscimento facciale.
Sarà proibito impiegare l’identificazione biometrica in spazi accessibili al pubblico, con la sola eccezione delle indagini per reati gravi e comunque esclusivamente in seguito a specifica autorizzazione di un tribunale. Stop, inoltre, ai sistemi che profilano e “discriminano” gli individui in base genere, razza, etnia, cittadinanza, religione, orientamento politico.
Insomma, saranno vietate tutte le pratiche in cui l’intelligenza artificiale si intromette in modo fin troppo pervasivo nella vita quotidiana dei cittadini. Arriva a servirsi dei loro dati sensibili e delle loro particolari caratteristiche fisiche, con finalità spesso poco trasparenti.
Rientrano, invece, nella categoria ad alto rischio i sistemi che potrebbero “danneggiare la salute delle persone, la sicurezza, i diritti fondamentali o l'ambiente”. Secondo gli eurodeputati, il pericolo si concretizza quando l’IA opera negli ambiti dell’identificazione biometrica, gestione dei servizi e delle infrastrutture essenziali, istruzione, occupazione, erogazione di sussidi pubblici, gestione dell’immigrazione, interpretazione della legge.
Ad esempio, l’IA potrebbe essere utilizzata per stilare una graduatoria dei beneficiari delle case popolari oppure per assegnare una cattedra a un docente. Si tratta, in sostanza, di casi dove la qualità della vita, il futuro lavorativo o la sicurezza delle persone rischia di essere determinata da algoritmi che ne analizzano i dati sensibili per inserirle in una categoria piuttosto che in un’altra.
Sono finiti nel mirino persino gli algoritmi al cuore dei nostri social network preferiti. Negli ultimi anni, molte indagini hanno dimostrato la loro abilità nel manipolare l’orientamento dell’opinione pubblica in vista delle elezioni oppure nel diffondere informazioni false, così come nel costruire un’immagine di bellezza fisica talmente perfetta da ingenerare traumi psicologici negli utenti più giovani e indifesi. Questo perché le grandi piattaforme – arricchendosi con i nostri dati personali – premiano i contenuti capaci di attirarci, indipendentemente dalla loro qualità o dai messaggi che veicolano.
Tali sistemi non verranno proibiti, tuttavia saranno catalogati in una grande banca dati europea e il loro funzionamento sarà costantemente monitorato.
Nella categoria a rischio limitato, infine, troviamo l’intelligenza artificiale generativa. L’esempio più immediato è quello della controversa ChatGPT, che su richiesta umana può generare dal nulla immagini di qualsiasi tipo. Queste tecnologie sono rischiose, in quanto è sempre più complicato per l’occhio inesperto riuscire a distinguere le immagini “elaborate” da quelle reali. In conseguenza, il pericolo della fabbricazione e circolazione tempestiva di notizie false è, di fatto, dietro l’angolo.
L’Europarlamento ha previsto l’obbligo per gli sviluppatori di registrare nella banca dati europea le loro applicazioni prima di immetterle sul mercato. Essi dovranno, inoltre, rendere chiaramente distinguibili le immagini create dall’IA e dovranno informare gli utenti su quali dati personali vengono usati per migliorare il servizio, consentendo loro di opporsi.
Tra le altre novità della bozza approvata dall’Assemblea vi è la proposta di istituire un ufficio europeo per l’intelligenza artificiale. Avrà il compito di vigilare sulla corretta applicazione della legge, potrà fornire assistenza nell’interpretazione della stessa e, in caso di infrazioni, potrà coordinare le investigazioni congiunte degli Stati membri.
In aggiunta, l’Europarlamento conta di rafforzare i poteri delle singole autorità nazionali. L’obiettivo è quello di consentire loro di esaminare gli algoritmi dell’IA utilizzati dalle aziende, per indagarne il funzionamento e scoprire se e in che misura si verificano irregolarità nel trattamento dei dati personali degli individui.
D’altronde, in un precedente studio, la Commissione europea aveva identificato proprio nella “dipendenza funzionale dai dati personali” una delle caratteristiche principali dell’IA. Accanto a ciò, venivano citate la sua imprevedibilità derivante dall’adattamento continuo alle interazioni con le persone, la sua complessità e la sua capacità di funzionare autonomamente. In relazione all’ormai diffusissima IA generativa, gli esperti – menzionando espressamente ChatGPT – avevano sollevato “una serie di preoccupazioni strategiche in merito alla privacy, ai diritti di proprietà intellettuale e alla diffusione della disinformazione”.
I due relatori della legge, l’italiano Brando Benifei e il romeno Dragos Tudorache, ne hanno accolto con entusiasmo l’approvazione. Per Benifei, appartenente al gruppo “Socialisti e Democratici”, ciò che conta è stabilire dei precisi limiti per l’utilizzo dell’IA. “Vogliamo che il potenziale creativo e produttivo dell'IA venga sfruttato. Tuttavia, ci batteremo per proteggere la nostra posizione e contrastare i pericoli per la democrazia e la libertà”, ha affermato l’eurodeputato. Il collega Tudorache, dalle fila dei liberali di “Renew Europe”, ha sottolineato l’importante novità rappresentata dal provvedimento: “La legge stabilirà un criterio a livello mondiale per lo sviluppo e la gestione dell'intelligenza artificiale”.
Marco Sollevanti – Agenzia Stampa Italia