Pietro Guastamacchia
Con quello che la presidente
Roberta Metsola ha definito "un voto storico", l'Eurocamera ha
dato il via libera all'AiAct, un insieme di regole che rendono
l'Unione europea la prima potenza al mondo a stabilire norme per
garantire che l'uso dell'Intelligenza artificiale non violi le
leggi e i valori fondamentali dell'Europa. Nel testo, frutto di
mesi di negoziati tra le parti, l'attenzione è rivolta
soprattutto ai cosiddetti 'foundation models', blocchi di
conoscenza primaria che fungono da fondamenta per il
funzionamento delle tecnologie a IA e che dovranno insegnare
agli algoritmi che domineranno il nostro futuro ad essere al
servizio dell'uomo e a prevenire la discriminazione in ambito
digitale. "Ci dicevano che imponendo regole severe avremmo
frenato l'innovazione e invece abbiamo avuto il coraggio di
imporre un modello che potrebbe essere un esempio per il mondo
intero", ha esultato il relatore del testo, il capodelegazione
del Pd, Brando Benifei. "Le nuove regole saranno uno standard
globale a lungo", ha sottolineato Metsola. La proposta prevede
una serie di divieti tassativi all'utilizzo dell'intelligenza
artificiale per pratiche come il 'social scoring', ovvero la
classificazione dei comportamenti sociali, per l'uso di
algoritmi che leggono le emozioni in contesti di lavoro o nelle
scuole e per i sistemi di polizia predittiva, ovvero algoritmi
che utilizzano sistemi di profilazione basati su dati personali
o comportamenti passati. E' stato anche approvato il divieto
all'utilizzo delle tecnologie di riconoscimento biometrico in
tempo reale negli spazi pubblici: il tema, tuttavia ha diviso
l'aula di Strasburgo. Il Ppe aveva avanzato un emendamento che
introduceva alcune eccezioni al divieto come nel caso di minacce
terroristiche e ricerche di minori scomparsi. Ma il blitz dei
Popolari è stato fermato da una cordata composta da Sinistre,
Verdi, Liberali e Socialisti. "Sventato il rischio di essere
trasformati in codici a barre che camminano", hanno chiosato gli
eurodeputati S&d sui social. Per gli utilizzi non vietati, il
testo impone una classificazione in fasce di rischio con regole
stringenti di sorveglianza umana per la fascia più alta, che
include utilizzi legati ai sistemi educativi, informativi o
legati allo svolgimento della vita democratica. I sistemi di IA
generativa come Chat Gpt dovranno rispettare stringenti
requisiti di trasparenza, come ad esempio imporre la
dichiarazione che il contenuto è stato generato dall'IA,
aiutando così a distinguere le cosiddette immagini deep-fake da
quelle reali, e fornire salvaguardie per evitare la generazione
di contenuti illegali. Quello dell'Eurocamera è solo il primo sì
che avvia una fase negoziale comunque in salita. Ma il dossier,
in Europa, è ormai prioritario. Emmanuel Macron ha annunciato
fondi supplementari per 500 milioni di euro per lo sviluppo
dell'IA francese. L'inquilino dell'Eliseo venerdì vedrà Elon
Musk: "Parleremo di social network, IA e regole di
inquadramento". A Bruxelles invece il nuovo regolamento verrà
sottoposto ai cosiddetti triloghi, i negoziati con la
Commissione ed i 27 stati membri, la cui prima sessione si è
aperta già nella serata di mercoledì. Per la vicepresidente
della Commissione europea, Margrethe Vestager, vista la velocità
di sviluppo delle nuove tecnologie, i negoziatori dovrebbero
puntare a concludere il lavoro entro la fine del 2023. Trovato
l'accordo con le capitali il testo prevede un periodo di 24 mesi
prima dell'entrata in vigore delle nuove regole, tempo che
Benifei ha già annunciato di voler provare a ridurre in sede di
negoziato a 18 o forse meno. "I rischi legati a queste
tecnologie non sono legati al domani ma esistono già oggi,
bisogna agire senza perdere tempo. L'era dell'IA è già iniziata
", ha avvertito il relatore.
Riproduzione riservata © Copyright ANSA