Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Hi-tech
  1. ANSA.it
  2. Tecnologia
  3. Hi-tech
  4. Google, un 'tasto rosso' per spegnere Intelligenza artificiale

Google, un 'tasto rosso' per spegnere Intelligenza artificiale

Sistema per evitare involuzioni come in film Ex Machina

Un "pulsante rosso", di emergenza, in grado di spegnere un'intelligenza artificiale qualora diventasse pericolosa per il genere umano come descritto dal film Ex Machina. Il sistema è oggetto di uno studio condotto da DeepMind di Google (il cui software è finito sotto i riflettori per aver battuto l'uomo al gioco Go) e dall'Università di Oxford, ed è pubblicato sul sito del Machine Intelligence Research Institute dell'università californiana di Berkeley. Lo studio si innesta in un momento storico di forti investimenti da parte della Silicon Valley sull'intelligenza artificiale (AI).

I ricercatori affermano di aver creato una sorta di "pulsante rosso" che non solo è in grado di "arrestare" le azioni di una intelligenza artificiale ma anche di impedire che un sistema troppo sviluppato possa capire e aggirare questa interruzione.

Tuttavia non è ancora chiaro, spiegano gli scienziati al sito Business Insider, "se tutti i tipi di algoritmo possano essere 'interrotti' facilmente e in modo sicuro".

I ricercatori stanno ragionando sul fatto che un agente AI possa evolversi anche in modo pericoloso o controproducente per l'essere umano. Lo studio sarà illustrato alla Conference on Uncertainty in Artificial Intelligence (UAI) in agenda a New York a fine giugno.
   

      RIPRODUZIONE RISERVATA © Copyright ANSA

      Video ANSA



      Modifica consenso Cookie