Via libera dell'Eurocamera all'Ai Act, ovvero all'impianto di norme europee sull'Intelligenza Artificiale. L'approvazione del testo in plenaria è arrivata ad ampia maggioranza: i voti favorevoli sono stati 523, i contrari 46 e gli astenuti 49. L'Ue è la prima al mondo a dotarsi di regole sull'Intelligenza artificiale.
Il regolamento punta a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione e assicurando all'Europa un ruolo guida nel settore. La normativa prevede obblighi sulla base dei possibili rischi e del livello d'impatto dei sistemi di IA. In altre parole, le nuove regole mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini, tra cui i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, il social scoring, le pratiche di polizia predittiva.
Sono però previste delle eccezioni. In alcune situazioni specifiche espressamente previste dalla legge le forze dell'ordine potranno fare ricorso ai sistemi di identificazione biometrica, altrimenti vietati. L'identificazione "in tempo reale" potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l'uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico.
Quanto ai sistemi ad alto rischio, quelli cioè che potrebbero arrecare danni significativi a salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto, vige l'obbligo di valutare e ridurre i rischi, mantenere registri d'uso, essere trasparenti e accurati e garantire la sorveglianza umana.
Una delle novità, rispetto alla proposta della Commissione, è la previsione di norme per sistemi di IA per finalità generali, che dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme Ue sul diritto d'autore durante le fasi di addestramento dei vari modelli.
I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare obblighi aggiuntivi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati, i cosiddetti deepfake, dovranno essere chiaramente etichettati come tali (watermarking).
I paesi dell'Ue, infine, dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (sandbox), in modo che Pmi e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Il regolamento entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta Ufficiale dell'Ue e inizierà ad applicarsi 24 mesi dopo l'entrata in vigore, salvo per quanto riguarda i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l'entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
Riproduzione riservata © Copyright ANSA