/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

OpenAI, un'autorità internazionale per ridurre i rischi dell'IA

OpenAI, un'autorità internazionale per ridurre i rischi dell'IA

Altman e soci: "L'intelligenza artificiale come il nucleare"

BRUXELLES, 17 ottobre 2023, 14:44

Redazione ANSA

ANSACheck

Il ceo di OpenAI, Sam Altman © ANSA/EPA

Il ceo di OpenAI, Sam Altman © ANSA/EPA
Il ceo di OpenAI, Sam Altman © ANSA/EPA

Istituire un'autorità internazionale che possa ridurre il rischio esistenziale legato all'intelligenza artificiale (IA) un po' come avvenuto con la creazione dell'Agenzia internazionale per l'energia atomica (Aiea). È una delle proposte formulate dal ceo di OpenAI, Sam Altman, e dai suoi soci, Greg Brockmann e Ilya Sutskever, in un intervento pubblicato sul sito della società che ha creato il popolare software di IA, ChatGpt. "Dato il quadro attuale, è concepibile che entro i prossimi dieci anni i sistemi di IA supereranno il livello di competenza degli esperti nella maggior parte dei settori" scrivono i tre, sottolineando come "in termini di potenziali vantaggi e svantaggi, la super intelligenza sarà più potente di altre tecnologie con cui l'umanità ha dovuto confrontarsi in passato". L'IA richiede quindi "un trattamento e un coordinamento speciali" per mitigare i rischi legati a questa tecnologia, così come avvenuto con il nucleare, avvertono i fondatori di OpenAI, suggerendo una governance condivisa. "È probabile - osservano - che alla fine avremo bisogno di qualcosa come l'Aiea per gli sforzi di super intelligenza. Qualsiasi sforzo al di sopra di una certa soglia di capacità (o di risorse, come il calcolo) dovrà essere soggetto a un'autorità internazionale che sia in grado di ispezionare i sistemi, richiedere verifiche, controllare la conformità agli standard di sicurezza, porre restrizioni sui gradi di diffusione e sui livelli di sicurezza, ecc.". 

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza