/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Studio, 'deepfake problema complesso, non esiste una panacea'

Studio, 'deepfake problema complesso, non esiste una panacea'

Pubblicato il primo report su misure per mitigarne i rischi

BRUXELLES, 15 settembre 2023, 19:11

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

"I deepfake rappresentano un problema complesso, per il quale non esiste una panacea, ma che può essere combattuto meglio con una combinazione di misure a vari livelli". Questa la principale conclusione del rapporto dell'European Telecommunications Standards Institute (Etsi), il primo studio al mondo sulle misure per mitigare i rischi derivanti dall'uso dei deepfake generati dall'intelligenza artificiale (IA). Un fenomeno, quello dei deepfake, non nuovo, scrivono gli esperti, che sottolineano tuttavia come le tecniche di IA consentano di fare "un passo avanti sotto molti aspetti" e possano "avere effetti negativi in una gamma più ampia di situazioni".
    "Le tecniche di IA consentono manipolazioni automatizzate che in precedenza richiedevano una notevole quantità di lavoro manuale e, in casi estremi, possono persino creare dati multimediali falsi da zero. I deepfake sono anche in grado di manipolare file audio e video in modo mirato, preservando un'elevata qualità acustica e visiva dei risultati, cosa che era in gran parte irrealizzabile con le precedenti tecnologie. Le tecniche di IA possono essere utilizzate per manipolare file audio e video in senso più ampio, ad esempio applicando modifiche allo sfondo visivo o acustico. Il nostro rapporto Etsi propone misure per attenuarle", spiega Scott Cadzow, presidente del gruppo di lavoro Securing AI dell'Etsi che ha curato il rapporto.
    Nello studio, si passano in rassegna diversi scenari di attacco, volti ad esempio a influenzare l'opinione pubblica o a diffondere propaganda e disinformazione. Vi sono poi gli attacchi personali, con la diffusione di video, audio o testi falsi sui social media per umiliare la vittima o rovinarne la reputazione. Un altro tipo di attacco, tra quelli annoverati, prende esplicitamente di mira le procedure di identificazione e autenticazione biometrica a distanza, procedure diffuse in molti Paesi che consentono agli utenti di accedere a servizi digitali forniti da enti pubblici o privati di settori industriali regolamentati.
    Lo studio individua quindi una serie di contromisure, generiche e specifiche, per mitigare i rischi collegati all'uso dei deepfake. Tra queste gli esperti citano la promozione dell'educazione sull'esistenza del fenomeno, gli interventi normativi che richiedono che l'uso di rappresentazioni di identità manipolate sia chiaramente contrassegnato, l'impiego di sistemi di IA addestrati a rilevare i contenuti manipolati.
   
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza