OpenAI si affida ad un team e a linee guida per valutare i "rischi catastrofici" dell'intelligenza artificiale nei modelli attualmente in fase di sviluppo. L'annuncio arriva un mese dopo che il consiglio di amministrazione della società ha licenziato il Ceo Sam Altman, per poi assumerlo nuovamente dopo che dipendenti e investitori si sono ribellati.
"Crediamo che lo studio scientifico sui rischi catastrofici derivanti dall'intelligenza artificiale sia ben al di sotto di dove debba essere", ha spiegato OpenAI per cui le linee guida aiutano "a colmare questa lacuna". Secondo i media statunitensi, i membri del Cda della società avevano criticato Altman per aver favorito lo sviluppo accelerato di OpenAI.
Il team di monitoraggio e valutazione si concentrerà sui modelli in fase di sviluppo e assegnerà un livello di rischio, da "basso" a "critico", in quattro categorie principali. Possono essere utilizzati solo i modelli con un punteggio di rischio pari o inferiore a "medio". La prima categoria riguarda la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala. Il secondo misura la propensione del software a contribuire alla creazione di una miscela chimica, di un virus o di un'arma nucleare. La terza categoria riguarda il potere persuasivo del modello, ovvero la misura in cui può influenzare il comportamento umano. L'ultima categoria di rischio riguarda la potenziale autonomia del modello, in particolare se può sfuggire al controllo dei programmatori che lo hanno creato.
Una volta identificati i rischi, verranno sottoposti al Safety Advisory Group di OpenAI, l'organismo che formulerà raccomandazioni ad Altman o a una persona da lui nominata. Il responsabile di OpenAI deciderà quindi eventuali modifiche da apportare a un modello per ridurre i rischi associati. Il consiglio di amministrazione sarà informato e potrà annullare una decisione.
Riproduzione riservata © Copyright ANSA