/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

AI: Esperti, 'da Roma-Parigi-Berlino pericoloso passo falso'

AI: Esperti, 'da Roma-Parigi-Berlino pericoloso passo falso'

'Loro proposta avvantaggia le Big Tech a scapito delle start up'

BRUXELLES, 06 dicembre 2023, 14:55

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

Continua a far discutere la proposta di Italia, Francia e Germania di esentare dalla regolamentazione i modelli di fondazione come GPT-4, alla base di ChatGPT, nel quadro della legge europea sull'intelligenza artificiale (AI Act). Per l'organizzazione no profit Future of Life Institute accogliere la richiesta dei tra Stati Ue sarebbe "un pericoloso passo falso". "I codici di condotta volontari e le schede modello" proposti nel documento, sono, secondo gli esperti, "sostituti deboli della regolamentazione obbligatoria e rischiano di rendere l'AI Act una tigre di carta". "Sacrificare l'ambizione della legge sull'IA di salvaguardare 450 milioni di persone dai rischi noti dell'IA per garantire la fiducia e l'adozione della legge stessa significherebbe - osservano - stravolgere il suo equilibrio originale, soprattutto considerando le proposte esistenti che bilanciano efficacemente innovazione e sicurezza". Optare per l'autoregolamentazione dei modelli di fondazione potrebbe far rimanere indietro l'Europa rispetto agli Stati Uniti, avverte Future of Life Institute, che potrebbero "stabilire standard di sicurezza globali attraverso le norme americane sulla frontiera di questa tecnologia emergente e dirompente".
    Un'autoregolamentazione dei modelli di fondazione andrebbe a vantaggio delle "grandi aziende tecnologiche e forse anche della francese Mistral AI e della tedesca Aleph Alpha" scrive inoltre, il responsabile ricerca sull'Ue per l'organizzazione no profit Future of Life Institute, Risto Uuk, insieme a Jaan Tallinn, ingegnere fondatore di Skype e Kazaa, in un articolo apparso sulla rivista specializzata in start up europee, Sifted. A farne le spese sarebbe invece "le start up europee come gli sviluppatori e i distributori a valle di modelli di IA per usi generici" costrette, spiegano, a "farsi carico dei costi legali e di conformità". Per soddisfare gli standard di sicurezza previsti dall'AI Act, in corso di approvazione, le start up hanno bisogno di informazioni e garanzie di sicurezza da parte degli sviluppatori di modelli di IA per usi generici. Senza queste garanzie, le start up, spiegano gli esperti, disporranno di "servizi non sicuri che dovranno rendere tali ai sensi dell'AI Act, con risorse limitate per farlo".
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza