Nell'anno delle "super
elezioni", che vedrà recarsi alle urne circa due miliardi di
cittadini in tutto il mondo, l'Alto rappresentante Ue Josep
Borrell avverte che il voto sarà un "obiettivo primario" per
Paesi come la Russia che cercano di diffondere disinformazione e
minare la democrazia. Il 2024 "sarà un anno cruciale per
combattere" la manipolazione straniera, ha spiegato il capo
della diplomazia europea presentando il secondo rapporto del
Servizio europeo d'azione esterna (Seae) sulle minacce legate
alla manipolazione e all'interferenza di informazioni straniere
(Fimi).
"La disinformazione pone un problema per la nostra sicurezza e
dobbiamo rispondere a chi ci attacca", ha sottolineato Borrell,
che ha poi ricordato l'allarme del World Economic Forum secondo
cui la disinformazione è il secondo rischio più grande che
dovremo affrontare quest'anno, anche a causa dell'intelligenza
artificiale (IA) per il suo potenziale uso improprio nella
produzione di contenuti fake. "L'IA - ha spiegato - sta
compiendo una vera e propria rivoluzione nel modo in cui è
possibile manipolare le informazioni: oggi è molto più economico
produrre e molto difficile individuare le informazioni, che sono
completamente false".
Secondo il rapporto del Seae, tuttavia, l'IA "non è (ancora) la
minaccia maggiore". Sui 750 incidenti Fimi presi in analisi nel
rapporto, registratisi in un arco di tempo che va da dicembre
2022 a novembre 2023, solo in una "minoranza" di casi "inferiore
a 20" sono stati utilizzati "mezzi di comunicazione generati
dall'IA". Diversi gli esempi citati, tra cui il video alterato
sinteticamente in cui il capo dell'esercito ucraino invocava un
colpo di stato, e ancora l'audio, anche questo generato dall'IA
e diffuso a soli due giorni dalle elezioni in Slovacchia, in cui
si sentiva il candidato progressista Michal Simecka discutere
con una giornalista della compravendita di voti della minoranza
rom. Eppure, spiegano gli esperti, l'IA potrebbe essere anche
una potente arma nel contrasto alla disinformazione. "La
crescita esplosiva e la disponibilità di strumenti di IA
potrebbe addirittura portare più vantaggi ai difensori che agli
aggressori", si legge nel rapporto in cui si evidenzia la
potenzialità della nuova tecnologia nella rilevazione e nel
monitoraggio di contenuti falsi.
Riproduzione riservata © Copyright ANSA