/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

OpenAI, un team valuterà i rischi 'catastrofici' dell'IA

OpenAI, un team valuterà i rischi 'catastrofici' dell'IA

L'annuncio ad un mese dal licenziamento e poi reintegro del Ceo Sam Altman

20 dicembre 2023, 14:08

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

OpenAI si affida ad un team e a linee guida per valutare i "rischi catastrofici" dell'intelligenza artificiale nei modelli attualmente in fase di sviluppo. L'annuncio arriva un mese dopo che il consiglio di amministrazione della società ha licenziato il Ceo Sam Altman, per poi assumerlo nuovamente dopo che dipendenti e investitori si sono ribellati.

"Crediamo che lo studio scientifico sui rischi catastrofici derivanti dall'intelligenza artificiale sia ben al di sotto di dove debba essere", ha spiegato OpenAI per cui le linee guida aiutano "a colmare questa lacuna". Secondo i media statunitensi, i membri del Cda della società avevano criticato Altman per aver favorito lo sviluppo accelerato di OpenAI.

Il team di monitoraggio e valutazione si concentrerà sui modelli in fase di sviluppo e assegnerà un livello di rischio, da "basso" a "critico", in quattro categorie principali. Possono essere utilizzati solo i modelli con un punteggio di rischio pari o inferiore a "medio". La prima categoria riguarda la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala. Il secondo misura la propensione del software a contribuire alla creazione di una miscela chimica, di un virus o di un'arma nucleare. La terza categoria riguarda il potere persuasivo del modello, ovvero la misura in cui può influenzare il comportamento umano. L'ultima categoria di rischio riguarda la potenziale autonomia del modello, in particolare se può sfuggire al controllo dei programmatori che lo hanno creato.

Una volta identificati i rischi, verranno sottoposti al Safety Advisory Group di OpenAI, l'organismo che formulerà raccomandazioni ad Altman o a una persona da lui nominata. Il responsabile di OpenAI deciderà quindi eventuali modifiche da apportare a un modello per ridurre i rischi associati. Il consiglio di amministrazione sarà informato e potrà annullare una decisione.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza