Alla fine la determinazione ha prevalso sulla stanchezza. L'Europa entra nella storia portando a casa un armamentario di norme, il primo al mondo, che regola lo sviluppo e l'uso dei sistemi di intelligenza artificiale. E lo fa dopo un negoziato fiume, durato oltre 36 ore, che dà l'idea della complessità della sfida raccolta dall'Ue nel disegnare un quadro giuridico per l'IA, tessendo un delicato equilibrio tra tutela dei diritti fondamentali e sostegno all'innovazione. Un terreno inesplorato quello in cui si è mossa Bruxelles, ma che necessita di essere definito davanti alle opportunità e ai rischi derivanti dallo sviluppo dell'IA, esploso con la diffusione di chatbot come ChatGPT.
"Un momento storico" ha esultato Ursula von der Leyen, celebrando uno dei cavalli di battaglia del suo mandato alla guida della Commissione europea che ha avanzato la proposta nel 2021. La normativa darà "un contributo sostanziale allo sviluppo di regole e principi globali per un'IA incentrata sull'uomo", ha rivendicato la numero uno dell'esecutivo comunitario. È il cosiddetto 'effetto Bruxelles', con cui l'Ue spera di orientare le norme sull'IA a livello mondiale, come accaduto con altri dossier. "Un passo significativo per lo sviluppo dell'IA" è stato il brindisi del ministro delle Imprese, Adolfo Urso, e del sottosegretario alla presidenza del Consiglio con delega all'Innovazione, Alessio Butti, all'intesa politica che ora dovrà incassare l'approvazione finale degli Stati membri, oltre che del Parlamento europeo.
Ma veniamo alle novità. Nocciolo duro della legge è l'adozione di un approccio basato sul rischio. In altre parole, sono previsti una serie di obblighi a fornitori e sviluppatori di sistemi di IA a seconda dei diversi livelli di rischio identificati. Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di IA vietate perché comportano un rischio inaccettabile per la sicurezza e i diritti fondamentali. Simbolo di tutte le battaglie è il divieto dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà ora limitato a casi specifici. "Alcuni governi compreso quello italiano avrebbero voluto più mano libera nel mettere sotto controllo i cittadini e fare profilazione ma hanno trovato un muro invalicabile da parte nostra a tutela delle libertà" ha rivendicato il capodelegazione del Pd al Parlamento Europeo e relatore dell'AI Act, Brando Benifei. Per Amnesty International tuttavia l'Ue ha dato "via libera alla sorveglianza digitale distopica", creando "un precedente devastante a livello mondiale". Critica anche l'associazione europea dei consumatori (Beuc), che lamenta "l'ampiezza dei rischi da cui i consumatori saranno impropriamente protetti in futuro".
Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L'accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico. Norme che Berlino, Parigi e in parte Roma avrebbero voluto diluire in codici di condotta, temendo che gli oneri imposti soffocheranno l'innovazione in Ue. "Non siamo ancora convinti che questo sia il modo giusto per garantire che l'Europa rimanga competitiva nell'IA. L'innovazione si farà comunque altrove" ha commentato a caldo l'eurodeputato del Ppe, Axel Voss. "Qui - ha ammesso - abbiamo perso la nostra occasione".
Riproduzione riservata © Copyright ANSA