Pisa, 14 settembre 2024 – L’intelligenza artificiale tra sfide future, normative e pericolo disinformazione. Ospite della conferenza Epip 2024 tenutasi alla Scuola Sant’Anna di Pisa, l’europarlamentare del Pd Brando Benifei (foto) padre dell’Ai-Act con il quale l’ia è stata normata, ha analizzato lo stato dell’arte, partendo dal principio di “un’intelligenza artificiale a misura di democrazia”.
Onorevole, cosa intende?
“Che l’Europa ha scelto di darsi, prima nel mondo, una regolamentazione orizzontale e omnicomprensiva: l’ia deve essere utile al bene comune, creare opportunità e ridurre i rischi per la società. Inoltre, anche alla luce del rapporto della competitività di Draghi la questione dell’ia viene toccata perchè le regole, che devono tutelare i deboli, possono funzionare solo se c’è uno sviluppo economico e una crescita comune”.
Quindi il vostro obiettivo qual è?
“Ci occuperemo di come rendere l’intelligenza artificiale in Europa compatibile col modello sociale e la nostra democrazia, capace di resistere sul mercato contro la diversa visione della Cina e degli Stati Uniti”.
E il braccio di ferro con questi colossi può funzionare?
“Il nostro modello tutela la creatività umana e gli artisti, mettendoli nelle condizioni di negoziare accordi per l’utilizzo delle loro opere. Secondo me le imprese non possono e non vogliono rinunciare al nostro mercato, il nostro peso economico è troppo grande per essere ignorato”. Il rischio è l’uso incontrollato dell’ia. Che cosa comporterebbe?
“Che non saremmo più capaci di distinguere se un prodotto è intelligenza artificiale o meno. Ciò è una parte del grande tema della disinformazione: la parola d’ordine deve essere trasparenza, sia sull’uso dei contenuti protetti da copyright e soprattutto per distinguere ciò che è vero e cosa no”.
Il Parlamento Europeo come intende muoversi?
“Con un meccanismo tecnico: i contenuti generati da ia saranno soggetti, col regolamento in vigore, a un’etichettatura invisibile che viene letta dagli strumenti con cui ne fruiamo. Un cellulare, una tv o altri dispositivi capiranno se il contenuto è generato da ia e ci avviseranno della veridicità o meno. Questo approccio tecnologico lo richiederemo ai vari programmi (come Chat Gpt) ed è fondamentale perché in pochi anni l’ia sarà indistinguibile dalla realtà e diventerà incontrollabile. Noi mettiamo un ‘bollino rosso’”.
Tutto ciò come si lega alla questione dell’etica dell’intelligenza artificiale?
“Il nostro regolamento, visto che punta a ridurre i rischi e aumentare le possibilità, ha intrinseco in sé il non allargare i divari sociali e l’aumentare la coesione tra persone. Il problema etico si ha nell’uso quotidiano dell’ia dove i codici deontologici sono soggettivi, per questo la norma deve essere superiore all’etica che, se lasciata in libertà, non garantisce la tutela comune”.