/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Da 25 big della ricerca un appello contro i rischi delle IA

Da 25 big della ricerca un appello contro i rischi delle IA

Sulla rivista Science, in vista del Summit a Seoul

21 maggio 2024, 17:03

di Leonardo De Cosmo

ANSACheck

Da 25 big della ricerca un appello per gestire gli sviluppi delle IA (fonte: Digital43, iStock) - RIPRODUZIONE RISERVATA

Le Intelligenze Artificiali crescono molto rapidamente e governare questo sviluppo è indispensabile urgente per evitare che diventino ingestibili e pericolose; per questo governi e aziende leader devono investire molto di più per trovare contromisure efficaci ai pericoli che spaziano dall'instabilità sociale alla manipolazione di massa, fino a guerre combattute con macchine autonome. A lanciare l'appello sulla rivista Science sono 25 tra i maggiori esperti di IA a livello mondiale provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio, dell'Università canadese di Montreal. Lo fanno in una lettera pubblicata sulla rivista Science alla vigilia del summit internazionale sulla sicurezza dell'IA in programma a Seoul il 21 e 22 maggio.

Quello che secondo i 25 firmatari dell'appello è ormai urgente è "una rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritta dall'industria". Per l'informatico Stuart Russell, dell'Università della California a Berkeley e tra i firmatari della lettera, "è ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato".

La ricerca nell'ambito della IA sta progredendo in modo molto spedito, tanto che nel volgere di pochissimi anni potrebbero aprirsi scenari preoccupanti relativi ad ambiti delicati come la stabilità sociale, la sorveglianza pervasiva, la manipolazione di massa, i crimini informatici su vasta scala, fino a facilitare sistemi di guerra automatizzati. Secondo i firmatari dell'articolo è dunque imperativo che responsabili politici e grandi aziende passino dalle parole ai fatti. aumentando concretamente gli investimenti in sicurezza, che sono oggi quasi inesistenti e imponendo regolamentazioni serie.

Il primo punto enunciato nel documento è l'istituzione di un'efficace organizzazione di esperti in grado di prendere azioni rapide nei confronti delle IA. A titolo di confronto, sottolineano, l'Istituto per la Sicurezza delle IA degli Stati Uniti dispone di un budget annuale di 10 milioni di dollari, mentre l'Agenzia del farmaco Fda dispone di 6,7 miliardi. Andrebbero poi imposte delle politiche per la valutazione del rischio molto più rigorose e con ricadute concrete e, contrariamente a quanto accade oggi, non bisognerebbe fare affidamento su valutazioni volontarie di modelli di IA.

Gli esperti chiedono inoltre alle grandi aziende di IA di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni e ritengono urgente mettere in atto politiche che si attivino automaticamente quando l'intelligenza artificiale raggiunge determinati traguardi di capacità. Meccanismi dunque capaci stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi. "Le aziende - ha concluso Russell - si lamenteranno del fatto che è troppo difficile soddisfare le normative, che 'la regolamentazione soffoca l'innovazione'. È ridicolo. Ci sono più normative sulle paninerie che sulle società di IA".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

Guarda anche

O utilizza