/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Deepfake: un progetto europeo per imparare a combatterli

Deepfake: un progetto europeo per imparare a combatterli

Gli obiettivi e le strategie di Solaris, progetto di cui fa parte anche ANSA che studia l'impatto delle IA generative su informazione, politica e democrazia

Roma, 20 ottobre 2023, 18:34

Redazione ANSA

ANSACheck

Google Deepfake - RIPRODUZIONE RISERVATA

Google Deepfake - RIPRODUZIONE RISERVATA
Google Deepfake - RIPRODUZIONE RISERVATA

di Alessio Jacona*

Che cosa hanno in comune Mara Venier, Elon Musk, il leader del partito liberale Slovacchia Progressista Michal Šimečkae e quello del partito laburista britannico Keir Starmer? Tutti sono stati protagonisti inconsapevoli - e in alcuni casi anche vittime - di contenuti audio e video deep fake, ovvero falsi creati ad arte utilizzando l'intelligenza artificiale.

 

Ma mentre la Venier e Musk sono semplicemente finiti in un video rudimentale, facilmente riconoscibile come falso, dove si provava a sfruttare la loro credibilità per diffondere una truffa finanziaria, a Šimečkae e Starmer è toccato ben altro destino: la diffusione di due diversi deep fake audio, dove il primo sembrava rivelare a una giornalista come pensava di truccare le imminenti elezioni, mentre il secondo pareva insultare violentemente il proprio staff. Il tutto con un tempismo che lascia intendere come, in entrambi i casi, si sia trattato di un attacco mirato, orchestrato per screditare un personaggio politico in una fase delicata del processo democratico.

 

Episodi come questi pongono interrogativi sul futuro dell’informazione e della sua credibilità, ad esempio, ma anche su quello del nostro modo di percepire la realtà, distinguere il vero dal falso, capire a cosa credere e di chi fidarsi. In molti credono sia un problema squisitamente tecnologico, e per questo chiedono di porre nuovi limiti all’uso dell’IA. Ma è davvero così? «La verità è che non basta creare dei sistemi di IA affidabili, ma è necessario rendere affidabile l’interazione tra le nostre società e la tecnologia - spiega Piercosma Bisconti, co-fondatore di DEXAI – Artificial Ethics - Questo, per i deepfake, implica che dobbiamo trattarli non come un fenomeno tecnologico, ma come un fenomeno sociale da regolare».

 

Bisconti è ricercatore in etica dell’AI al Consorzio Interuniversitario Nazionale di Informatica, nonché tra gli ideatori di Solaris, il progetto di ricerca europeo di cui fa parte anche ANSA, e che nei prossimi tre anni punta proprio a definire metodi e strategie per gestire i rischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portano alla democrazia, all'impegno politico e alla cittadinanza digitale. Concepito nel 2020 con focus sulle reti generative avversarie (GAN), oggi Solaris estende la sua ricerca anche alle nuove IA generative, come Midjourney o ChatGPT.

 

Tuttavia, secondo Bisconti la tecnologia è solo una parte del problema, e forse neanche la più importante: «Che si tratti di GAN o di LLM, e che il prodotto deep fake sia video, testo o immagini, a noi interessa relativamente poco - spiega infatti -  quello che a noi interessa è sapere a quali condizioni un soggetto si fida del contenuto e in che maniera la generazione automatica di contenuti simulati può modificare i sistemi sociali, che siano falsi o finti». Già, perché bisogna distinguere: per contenuti falsi, o fake, intendiamo quelli truffaldini, mentre per finti intendiamo quelli che sono dichiaratamente tali, che vengono generati per scopi positivi e che saranno oggetto di studio nell’ultima fase del progetto Solaris, dedicata alla Generative AI for good.

 

L’idea alla base di Solaris nasce nel 2020, quando Bisconti sta conducendo una ricerca sul complottismo in rete. Uno studio che comporta l’analisi di contenuti diffusi su piattaforme come 4chan e Reddit, dove circolano molti utenti legati alla alt-right americana, e dove improvvisamente fanno la loro comparsa i primi deep fake generati in maniera ancora rudimentale, utilizzando le GAN. «È il momento in cui con i miei colleghi abbiamo iniziato a capire il vero problema derivante dalla circolazione di contenuti deep fake non sarà distinguere il vero dal falso, perché questo sarà sempre possibile - afferma Bisconti - Il problema sarà piuttosto che per i sistemi sociali, cioè le comunità, diventerà impossibile gestire i contenuti simulati se questi verranno diffusi in quantità troppo grandi». In altre parole, la nostra società non è attualmente in grado di assorbire l’onda d’urto di uno tsunami di deep fake, che potrebbe devastare la fiducia dei cittadini nella società stessa.

 

Solaris nasce per questo, e intanto sono già in cantiere i primi due casi d’uso. «Nella primo stiamo cercando di capire a che condizioni gli utenti si fidano di un contenuto. Già ora emerge che la gente non nota, ad esempio, che gli LLM faticano a generare dettagli come le mani, ma bada ad altre cose: alle fonti, che più sono vicine nella rete sociale più vengono giudicate fidate, ma anche ad elementi inaspettati come il tipo di inquadratura o la qualità dell’immagine, che più è definita più risulta credibile», chiarisce il ricercatore.

 

Ancora più importante, è però capire come reagire all’emergenza che sorge dalla diffusione virale e incontrollata di un contenuto falso: «lo scopo della seconda use case - conferma Bisconti - è mostrare come si comporterebbero in presenza di un deep fake dal contenuto estremamente impattante i decision maker della catena socio-tecnica nel processo che va dall’informazione all’effetto politico». Per capire serve un esempio: mettiamo il caso che qualcuno riesca ad hackerare i sistemi della CNN, e che poi diffonda il video deep fake di un loro presentatore mentre annuncia l’invasione di uno stato ai danni di un altro: «Qui si capisce che il tema non è riconoscere un deep fake, ma riuscire a gestire gli effetti di un danno già fatto - spiega Bisconti - Cosa possibile solo se noi abbiamo una metodologia che sia politologica, capace di segmentare gli effetti anche in base ai diversi canali dove la notizia falsa si diffonde presso pubblici con fasce di età e caratteristiche diverse. Come si ferma la catena di effetti? Chi deve chiamare chi? Quale deve essere il protocollo da seguire? Sono queste le domande a cui vogliamo rispondere».

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza