Continua a far discutere la
proposta di Italia, Francia e Germania di esentare dalla
regolamentazione i modelli di fondazione come GPT-4, alla base
di ChatGPT, nel quadro della legge europea sull'intelligenza
artificiale (AI Act). Per l'organizzazione no profit Future of
Life Institute accogliere la richiesta dei tra Stati Ue sarebbe
"un pericoloso passo falso". "I codici di condotta volontari e
le schede modello" proposti nel documento, sono, secondo gli
esperti, "sostituti deboli della regolamentazione obbligatoria e
rischiano di rendere l'AI Act una tigre di carta". "Sacrificare
l'ambizione della legge sull'IA di salvaguardare 450 milioni di
persone dai rischi noti dell'IA per garantire la fiducia e
l'adozione della legge stessa significherebbe - osservano -
stravolgere il suo equilibrio originale, soprattutto
considerando le proposte esistenti che bilanciano efficacemente
innovazione e sicurezza". Optare per l'autoregolamentazione dei
modelli di fondazione potrebbe far rimanere indietro l'Europa
rispetto agli Stati Uniti, avverte Future of Life Institute, che
potrebbero "stabilire standard di sicurezza globali attraverso
le norme americane sulla frontiera di questa tecnologia
emergente e dirompente".
Un'autoregolamentazione dei modelli di fondazione andrebbe a
vantaggio delle "grandi aziende tecnologiche e forse anche della
francese Mistral AI e della tedesca Aleph Alpha" scrive inoltre,
il responsabile ricerca sull'Ue per l'organizzazione no profit
Future of Life Institute, Risto Uuk, insieme a Jaan Tallinn,
ingegnere fondatore di Skype e Kazaa, in un articolo apparso
sulla rivista specializzata in start up europee, Sifted. A farne
le spese sarebbe invece "le start up europee come gli
sviluppatori e i distributori a valle di modelli di IA per usi
generici" costrette, spiegano, a "farsi carico dei costi legali
e di conformità". Per soddisfare gli standard di sicurezza
previsti dall'AI Act, in corso di approvazione, le start up
hanno bisogno di informazioni e garanzie di sicurezza da parte
degli sviluppatori di modelli di IA per usi generici. Senza
queste garanzie, le start up, spiegano gli esperti, disporranno
di "servizi non sicuri che dovranno rendere tali ai sensi
dell'AI Act, con risorse limitate per farlo".
Riproduzione riservata © Copyright ANSA