L’intelligenza artificiale è un pericolo per la democrazia? Forse non di per sé, ma lo diventase combinata con «La mancanza di alfabetizzazione digitale dell’utente medio, perché imodelli di IA generativa possono essere utilizzati per creare disinformazione altamenteconvincente e media manipolati, che poi possono diffondersi rapidamente online». A parlareè Izidor Mlakar, scienziato alla guida di HUMADEX (Human-centric Explorations andResearch in AI, Technology, Medicine and Enhanced Data), un gruppo di ricerca parte delLaboratory for Digital Signal Processing presso la Faculty of Electrical Engineering andComputer Science University dell'Università di Maribor, in Slovenia.
Secondo Mlakar, oltre alla nostra impreparazione a rendere pericolosa l’IA sono anche «Isocial media da essa alimentati, che possono accelerare la diffusione della disinformazione»ad esempio perché «i bot basati su IA e la messaggistica mirata possono essere utilizzatiper influenzare ulteriormente l'opinione pubblica e il sentiment degli elettori».
Il gruppo di ricerca HUMADEX è un team multidisciplinare di esperti in intelligenza artificiale,intelligenza conversazionale e interazione uomo-macchina. Insieme ad ANSA, è parte delprogetto di ricerca europeo Solaris, il cui obiettivo è definire metodi e strategie per gestire irischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portanoalla democrazia, all'impegno politico e alla cittadinanza digitale.
HUMADEX è composto innanzitutto da esperti di IA, i quali contribuiscono allo sviluppo e alperfezionamento degli algoritmi che alimentano gli aspetti interattivi e intelligenti dellapiattaforma SOLARIS, inclusi la comprensione del linguaggio naturale, il machine learning el'analisi dei dati, essenziali per creare esperienze utente reattive e adattive. Insieme con lorolavorano poi anche psicologi e specialisti dell'interazione uomo-macchina, impegnati agarantire che la tecnologia sia user-friendly, coinvolgente e accessibile, ma anche asovrintendere lo sviluppo, l’esecuzione e l’analisi dei casi d'uso.
Qual è esattamente il vostro ruolo nel progetto Solaris?
«La nostra attività principale è stata progettare, testare e validare una scala che misura lafiducia nei contenuti generati dall'IA, cioè il Perceived Deepfake TrustworthinessQuestionnaire (PDTQ) (Questionario sulla credibilità percepita dei Deepfake). Abbiamocondotto studi di validazione estensivi in tre lingue: inglese, sloveno e italiano. Abbiamoanche lavorato sulla progettazione dettagliata degli esperimenti nei casi d'uso. Nel casod'uso 1 ci concentreremo sul cambiamento climatico e l'immigrazione. Valuteremo l'impattodei contenuti generati dall'IA sugli atteggiamenti espliciti e impliciti verso questi temi, con laqualità obiettiva del video, la fiducia percepita e l'orientamento politico come parametri diconfronto. Nel caso d'uso 2 ci concentreremo su decisori politici e uffici stampa persviluppare metodologie e raccomandazioni politiche utili a prevenire che i contenuti generatidall'IA impattino negativamente sui sistemi sociali. Simuleremo la diffusione di deepfake conimpatti socio-politici severi (ad esempio, un attacco a una centrale nucleare o un primoministro che afferma una teoria del complotto) e gestiremo le potenziali conseguenze offline.Infine, il caso d'uso 3 si concentrerà sul potenziale dell'IA (generativa) di migliorare la cittadinanza digitale e l'impegno democratico. Qui l'attenzione è sulla co-creazione dicontenuti generati dall'IA con i cittadini per sensibilizzare su questioni chiave (ad esempio, ilcambiamento climatico, l'uguaglianza di genere)».
Quali sono i problemi reali e immediati che le tecnologie di IA, specialmente l'IAgenerativa, stanno ponendo al processo democratico?
«Molte persone faticano a valutare criticamente l'accuratezza e l'affidabilità delleinformazioni online, specialmente quando provengono da fonti generate dall'IA. Senzaalfabetizzazione digitale, le persone sono vulnerabili a prendere decisioni basate sunarrazioni false e contenuti manipolativi. Inoltre, le reazioni e la reattività dello stato e deimedia tradizionali e affidabili non possono competere con la qualità e la portata potenzialedei contenuti negativi».
Come il progetto Solaris affronterà questi problemi e, più in generale, cosa dovremmofare per adottare in modo sicuro questa potente tecnologia e utilizzarla per il bene?
Nel caso d'uso 1, SOLARIS sta sviluppando meccanismi per "spiegare" ai cittadini ed"educarli" quali elementi considerare quando si cerca di capire se un contenuto è "reale" omeno. Infatti, la competenza chiave di alfabetizzazione nell'IA include la comprensione dicome funziona l'IA non a livello tecnico, ma funzionale. Anche i rischi di privacy e sicurezzaattorno all'IA devono essere affrontati attraverso l'alfabetizzazione digitale. Nel caso d'uso 2ci concentriamo su come gli esperti dovrebbero reagire quando si verifica una minaccia allademocrazia. Cercheremo di fornire a decisori politici e ai media strumenti per rivederemeglio i protocolli di mitigazione. Questo rappresenta un passo significativo percomprendere e mitigare meglio i rischi democratici posti dall'IA avanzata e, a riguardo, lacollaborazione pubblico-privato su standard industriali e autoregolamentazione per losviluppo responsabile e l'implementazione dell'IA generativa, come l'AI-Act, può aiutare inuna certa misura, ma se le regole non vengono adottate da tutti, lo sviluppo della tecnologiacosì come i servizi basati su di essa tenderanno a spostarsi in contesti meno regolamentati.Pertanto, la chiave è l'alfabetizzazione sull'IA e l'educazione per permettere ai cittadini divalutare criticamente i contenuti generati con essa, nonché per aiutarli a capire come questetecnologie possono essere usate sia in modo improprio, sia per il bene».
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA
Riproduzione riservata © Copyright ANSA