01. Rubriche

BCG: le aziende italiane sono pronte alla regolamentazione dell’IA

Lo rivela lo studio “Five Ways to Prepare for AI Regulation”, da cui emerge anche la necessità per le imprese di implementare un programma di Intelligenza Artificiale Responsabile (RAI)

BCG: le aziende italiane sono pronte alla regolamentazione dell’IA

Redazione Ansa

In un mondo in cui si susseguono annunci e notizie riguardanti nuove tecnologie e servizi basati su intelligenza artificiale, sono almeno 60 i Paesi e territori nel mondo stanno cominciando a disegnare il quadro normativo per l’utilizzo di questa tecnologia, con oltre 800 misure in analisi.

 

In Europa, ad esempio, il regolamento noto come AI Act è ormai alla battute finali prima della sua approvazione, ed è il primo che istituisce un quadro giuridico volto a regolare lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità con i valori e i diritti costituzionali dell’UE: per esempio vietando pratiche come la sorveglianza biometrica di massa e la valutazione del credito basata sul social scoring. L’Italia, dal canto suo, ha lanciato il “Programma strategico per l'intelligenza artificiale 2022-2024”, che delinea 24 politiche per accelerare l’innovazione e le potenzialità dell’IA nel tessuto economico e sociale del Paese.

 

La domanda è se le aziende siano davvero pronte ad affrontare le nuove normative sull’IA, e una prima risposta arriva dal Digital Acceleration Index (DAI) di Boston Consulting Group (BCG), l’indagine globale e annuale condotta su 2.700 dirigenti nel mondo, giunta alla sua sesta edizione. Secondo lo studio, solo il 28% del campione esaminato afferma che la propria organizzazione è pienamente preparata ad affrontare le nuove normative AI. Va meglio in Italia, dove il 49% di dirigenti si dicono convinti della necessità di una regolamentazione per l’uso dell’AI, contro la media europea del 35%. Il 34% dei dirigenti afferma inoltre di avere già un Chief AI operativo all’interno della propria organizzazione.

Analizzando la situazione per settore, sempre a livello globale sono le aziende di telecomunicazione, del tech e dei beni di consumo quelle che hanno riportato i livelli più alti di preparazione, mentre il settore dell’energia e quello pubblico sono in coda. In Italia, invece, la situazione cambia: le aziende del settore energetico risultano essere le più preparate alla regolamentazione AI (89%), insieme alle realtà finanziarie (87.5%) e tecnologiche (83%). In coda, invece, i settori assicurativo e dei beni di consumo.

 

A tal proposito, BCG ha realizzato lo studio Five Ways to Prepare for AI Regulation, dal quale emerge che per le aziende il modo migliore di affrontare le regolamentazioni è implementare un programma di Intelligenza Artificiale Responsabile (RAI), fondato cioè su principi volti a garantire la responsabilità, la trasparenza, la privacy e la sicurezza, nonché l'equità e l'inclusione nel modo in cui si sviluppano e si utilizzano gli algoritmi. Ecco di seguito i 5 consigli:

1) È necessario che la leadership sia responsabilizzata: un leader di AI responsabile, che conosce le politiche e le esigenze aziendali e che si avvale di un team interfunzionale, sa mettere a punto strategie che generano benefici dall’AI, oltre che saper garantire la conformità alle normative emergenti.

2) È poi importante costruire e diffondere in azienda un quadro etico dell'AI per assicurarsi di soddisfare i nuovi requisiti senza ostacolare obiettivi e investimenti. Due terzi delle aziende che hanno partecipato all'indagine sui livelli di maturità digitale (DAI), stanno già compiendo passi importanti verso la creazione di un quadro di riferimento di questo tipo, ad esempio garantendo che gli sviluppatori comprendano fin dall'inizio gli obiettivi di un sistema e i risultati che esso genera, ma anche informando gli utenti su come i sistemi di AI utilizzano i loro dati.

3) Un altro elemento cruciale è il coinvolgimento umano nei processi e nelle piattaforme di AI: anche in questo caso le aziende più mature dal punto di vista digitale sono già all'avanguardia, dato che hanno più del doppio delle probabilità rispetto ai colleghi di attribuire un alto grado di importanza a pratiche fondamentali (come cicli di feedback e meccanismi di revisione) e di applicarle in modo coerente.

4) Dato che uno degli obiettivi dei programmi di RAI è individuare e risolvere i problemi il più presto possibile lungo l’intero ciclo di vita di un sistema di AI, occorre garantire che i principi fondamentali come trasparenza e inclusione siano incorporati nei processi di creazione e di lavoro con gli algoritmi. In seconda analisi, le aziende dovrebbero costruire o adottare uno strumento per condurre revisioni end-to-end, non solo degli algoritmi ma anche dei processi e dei risultati aziendali. Queste revisioni dovrebbero essere continue: dalla fase di sviluppo, alla prototipazione e all'implementazione in scala.

5) Infine, è necessario partecipare all’ecosistema RAI, ossia contribuire attivamente a un consorzio o gruppo di lavoro.

Leggi l'articolo completo su ANSA.it