03. SOLARIS

Come realizzare una Responsible AI

A colloquio con Anthony Cook, Corporate Vice President e Deputy General Counsel di Microsoft, in Italia per presentare la strategia del colosso americano per “Governare l'intelligenza artificiale”

Anthony Cook, Corporate Vice President e Deputy General Counsel di Microsoft

Redazione Ansa

Anthony Cook è Corporate Vice President e Deputy General Counsel di Microsoft. Lo abbiamo incontrato ed intervistato in esclusiva in occasione della sua visita in Italia, dove è venuto per presentare il documento intitolato “Governare l'intelligenza artificiale: una visione per il futuro”, in cui si descrivono la visione e le strategie di Microsoft per sviluppare una Responsible AI. Una lunga chiacchierata per capire come il colosso americano punta sostenere governi, istituzioni, aziende e società civile nel regolare la potenza dell’intelligenza artificiale (soprattutto quella generativa) senza ostacolarne lo sviluppo, mettendola al servizio del bene comune.

 

Cos'è la Responsible AI? Come la implementate su scala globale?

«Per Microsoft l’IA deve essere sviluppata e utilizzata in modo etico e responsabile. È un percorso iniziato nel 2016, quando il nostro CEO Satya Nadella ha pubblicato la sua nota interna sull'importanza di avere pratiche di IA responsabili come parte integrante dell'etica con cui costruiamo la tecnologia. Tutto ciò ci ha portato alla formulazione di sei principi guida che hanno definito puntualmente il lavoro svolto da allora. Poi, per passare dai principi alla pratica: negli ultimi quattro o cinque anni ci siamo dedicati allo sviluppo del cosiddetto "AI standard": si tratta di uno standard interno che fornisce linee guida molto specifiche e un quadro decisionale per i nostri sviluppatori e ingegneri, affinché possano costruire la tecnologia secondo i principi della Responsible AI. Dalla sua creazione ad oggi, l’AI Standard è stato oggetto già di due revisioni ed è parte di un processo operativo che coinvolge tutti i nostri ingegneri. Proprio come si ragiona in termini di sicurezza e privacy, anche l'IA responsabile deve essere integrata fin dall’inizio nel modo in cui la tecnologia viene costruita e implementata».

 

Operare su scala globale significa collaborare con altri giganti della tecnologia, con le istituzioni e i governi locali. Quest'anno abbiamo la presidenza italiana del G7 e il Primo Ministro italiano ha posto l'intelligenza artificiale al centro della discussione. Secondo lei, nell'ultimo anno i governi hanno sviluppato una nuova sensibilità verso questo argomento?

«Penso che i governi abbiano fatto molti progressi: l’Hiroshima AI Process del G7, avviato dal Giappone, è un ottimo esempio, così come lo sono i “Voluntary AI Commitments” promossi dalla Casa Bianca, il Safety Summit organizzato dal Regno Unito e ovviamente la nuova normativa europea AI Act, che mentre era ancora in cantiere ha dovuto essere aggiornato a causa dell’arrivo dell’IA generativa. In ogni caso, l’attenzione è stata focalizzata sull'importanza di rendere sicuri questi sistemi, specialmente i large language model, per garantirne uno sviluppo sicuro. Se prendiamo un qualsiasi prodotto, come ad esempio il latte, sappiamo che il processo di produzione seguirà determinati standard di sicurezza. Ecco, lo stesso dovrebbe valere per l'IA. I governi si stanno muovendo a ritmi diversi, ma sulla scena internazionale c'è convergenza sull'importanza assoluta della sicurezza. L'Italia sta adottando un approccio deciso alla questione, portando avanti il lavoro iniziato dal Giappone e, come è emerso dalla Dichiarazione di Trento sull'Intelligenza Artificiale, si sta concentrando sulle azioni da intraprendere per implementare i principi discussi focalizzando su tre aspetti».

 

Quali?

«Il primo è un approccio inclusivo. Limitare lo sviluppo dell'IA al G7 potrebbe essere visto come esclusivista. Il governo italiano ha ribadito l'importanza di un processo inclusivo che coinvolga il Sud del mondo, ma anche attori privati che possono dare contributi preziosi. Il secondo riguarda la partecipazione e la collaborazione con l'Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) nell'esaminare come questi principi possono essere trasformati in misure concrete di adozione. Infine, il terzo aspetto comporta l'adozione di strumenti specifici come il kit di strumenti per il settore pubblico in fase di sviluppo. Insomma, l'Italia ha una grande opportunità e il recente incontro è un chiaro segnale che mira a mantenere lo slancio trasformandolo in azioni concrete».

 

La sicurezza nell'IA è una questione etica ma anche e soprattutto tecnologica, perché per costruire un'IA affidabile e trasparente c’è ancora molta strada da fare. Persino Microsoft, che è in prima linea per sviluppare una Responsible AI, ha dovuto far fronte all’uso del suo software Designer per creare deepfake…

«In primo luogo, diciamo che quando in Microsoft lanciamo una nuova tecnologia essa è dotata di sufficienti protezioni e sistemi di sicurezza, e che la rendiamo disponibile al pubblico perché crediamo che possa apportare molti benefici. Poi, l'IA è uno strumento che migliora con l'uso, e quindi impariamo sia dagli usi positivi che dai casi in cui occorre una maggiore mitigazione dei rischi. Tenere nascosta la tecnologia finché non è perfetta negherebbe alle persone gli immensi vantaggi che offre e siamo certi di non rilasciare nulla che non possieda un certo livello di sicurezza di base».

 

È un compromesso necessario…

«Esatto. A questo punto dobbiamo considerare i problemi che emergono e come affrontarli. La questione dei "deep fake", ad esempio, è fonte di preoccupazione, soprattutto nel contesto elettorale. Ma come gestire questo problema specifico? Riconosciamo che non è una questione che una singola azienda possa risolvere da sola, serve una soluzione a livello di industria. A febbraio abbiamo lanciato un accordo tecnologico tra i partecipanti del settore che mira a proteggere le persone, individuare i deep fake, e diffondere consapevolezza tra il pubblico. Dobbiamo far capire le tecnologie impiegate per creare un deep fake e le loro conseguenze. Per questo abbiamo sviluppato servizi come "Content Credentials” che figure pubbliche o soggetti coinvolti in eventi come le elezioni possono usare per inserire filigrane "certificate" nei loro contenuti generati con l’IA. Allo stesso tempo lavoriamo su strumenti come Designer per incorporare tecnologie di filigrana sin dall'inizio. Impariamo man mano, migliorando gli strumenti usati per creare i contenuti e fornendo meccanismi per validare la fonte. Abbiamo già sviluppato strumenti e processi per individuare contenuti inappropriati come la pedopornografia online o scene violente. Funziona con filigrane e hashtag per l'identificazione e la successiva rimozione in collaborazione con il settore. Parallelamente lavoriamo sulla consapevolezza del pubblico»

 

Alcuni paragonano l’avvento dell’IA alla scoperta dell’energia nucleare e francamente l’idea di imparare ad usarla sul campo fa un po’ paura. Pensa che ci riusciremo?

«Non credo che quella con il nucleare sia un'analogia calzante, ma ci sono degli insegnamenti da trarre: un suggerimento che condividiamo è l'importanza di regolamentare rigorosamente i "large language models" e l'infrastruttura su cui lavorano. Se un sistema ha un enorme potenziale distruttivo, è necessario controllare strettamente il suo impiego in modo che rispetti i parametri di sicurezza che la società ha stabilito. Sono argomenti su cui il processo di Hiroshima e l'Italia stanno lavorando, per assicurarci di avere criteri precisi, sistemi di monitoraggio e test adeguati».

 

Perché l'analogia con il nucleare non è appropriata?

«Penso che la tecnologia nucleare non abbia lo stesso grado di interconnessione con il mondo. Però, l'idea di gestione rigorosa dell'infrastruttura e della sua regolamentazione è un insegnamento prezioso da applicare anche all'IA».

 

Ha menzionato l'AI Act, che finalmente è stato approvato anche se ora ci vorranno un paio d'anni per la sua completa implementazione. Dal suo punto di vista, i regolatori sono riusciti nell’impresa di bilanciare divieti e libertà di sviluppo?

«Diciamo innanzitutto che sono ancora molti i dettagli da vedere, ma che l'approccio basato sul rischio adottato nel regolamento europeo è una direzione che condividiamo. Ci sono però delle domande su come l'attuazione pratica impatterà non tanto sulle grandi aziende come Microsoft, che ne possono sostenere gli oneri, quanto piuttosto le "startup". L'implementazione in futuro dovrà bilanciare meglio l'esigenza di sicurezza con quella di innovazione. Credo anche che l'AI Act debba meglio definire le responsabilità sia di chi sviluppa sia di chi impiega l'IA».

 

Lei è in italia per presentare il documento intitolato “Governare l'intelligenza artificiale: una visione per il futuro”. Qual è in estrema sintesi il messaggio che è venuto a portare?

«Abbiamo guardato alla nostra esperienza nell'interagire con governi in tutto il mondo e abbiamo identificato le aree su cui crediamo sia meglio focalizzarsi quando si sviluppano le legislazioni nazionali e si pensa agli scenari normativi. In parte sono insegnamenti che abbiamo tratto dall'esperienza, in parte opportunità che vediamo specificamente in Italia. Vorrei soprattutto sottolineare quanto questi regolamenti e la tecnologia stessa richiedano un ampio dibattito tra i governi, le aziende tecnologiche, e la società civile, perché tutti giocheranno ruoli decisivi: la società civile nell'assicurare che i dibattiti siano pertinenti, i governi per la legislazione, e le aziende tecnologiche nell'aiutare le persone a capire l'IA».

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

Leggi l'articolo completo su ANSA.it