Al primo vertice mondiale
sull'intelligenza artificiale (IA) a Bletchley Park, nel Regno
Unito, la presidente della Commissione europea, Ursula von der
Leyen, ha delineato i quattro pilastri su cui costruire "un
efficace sistema di governance" che abbia l'obiettivo di
"comprendere e mitigare i rischi dei sistemi di IA". In primo
luogo, ha spiegato il capo dell'esecutivo comunitario, occorre
una "comunità scientifica fiorente e indipendente, dotata dei
mezzi per valutare i sistemi di IA", che possa contare su
"finanziamenti pubblici" e sull'accesso ai "migliori
supercomputer".
A questo pilastro, ha spiegato, va aggiunta l'elaborazione di
"procedure e standard accettati a livello internazionale per
testare la sicurezza dell'IA". Deve esserci inoltre, "una
procedura standard" per la segnalazione di "ogni incidente
significativo causato da errori o dall'uso improprio dell'IA. Il
quarto pilastro, infine, è costituito da "un sistema
internazionale di allarmi alimentato da segnalatori di fiducia".
E sulla base di questi quattro pilastri dovrebbe essere pensato
anche l'Ufficio europeo per l'IA, previsto nella proposta di
regolamento in materia, entrata nella fase finale dell'iter
legislativo. Tale ente potrebbe "occuparsi dei modelli di IA più
avanzati, con responsabilità di supervisione, nella logica del
quadro" di governance "a quattro pilastri", ha spiegato von der
Leyen, sottolineando la necessità di una collaborazione con la
comunità scientifica, per la promozione ad esempio di "standard
e pratiche di test per i sistemi di IA di frontiera".
L'Ufficio europeo per l'IA, ha spiegato, dovrebbe "integrare il
settore privato nelle indagini e nei test" ed essere in grado di
"agire sulla base di segnalazioni" garantendo che "gli
sviluppatori si assumano le proprie responsabilità". Von der
Leyen ha evidenziato infine la "vocazione globale" dell'Ufficio
che dovrebbe lavorare in collaborazione con "enti simili in
tutto il mondo".
Riproduzione riservata © Copyright ANSA