Fenomeno deepfake, quando il video non è quel che sembra

L'intelligenza artificiale al servizio della manipolazione e il rischio di una società zero - trust, senza fiducia

Redazione ANSA

E' recentissimo il fenomeno del deepfake, così recente che prima di sapere cosa fosse già ne siamo stati probabilmente vittime. Vi è capitato di vedere video di attori, politici, personaggi famosi che fanno o dicono cose incredibili? Avete visto Obama dire le parolacce peggiori o rapper cantare Shakespeare? Ecco, siete caduti nella trappola del deep fake, una tecnologia che utilizza una forma di intelligenza artificiale chiamata deep learning per creare video di eventi falsi. La maggior parte di questi video sono pornografici - recentemente il garante swlla Privacy è intervenuto su un app che spoglia nude minorenni -  ma c'è anche una grossa parte dedicata ai politici a loro dischiarazioni rigorosamente false. I falsi, posso anche essere solamente audio. Il responsabile di una filiale britannica di una società energetica tedesca ha versato quasi diverse decine di migliaia di sterline su un conto bancario dopo essere stato ingannato dalla finta/vera voce dell'amministratore delegato tedesco della società.
Il deep fake non è solo un modo escogitato da truffatori o produttori di cinema porno, sembra infatti che anche i governi stiano iniziando ad usarla ad esempio per far circolare falsi video di organizzazioni terroristiche per screditarne i vertici. Ma qual è il pericolo finale? Creare società  zero-trust, nelle quali cioè, le persone dubitano di tutto, persino di quello che vedono con i propri occhi. Non si interessano neanche più di scoprire se una cosa è vera o falsa per il solo fatto che può essere manipolata . Basta pensare agli effetti del deepfake sulle intercettazioni audio ambientali, che diventerebbero praticamente inutilizzabili. Si creerebbe un realtà plausibile, ma la cui veridicità rimarrebbe sempre dubbia.
I computer ci hanno permesso di snellire il lavoro, migliorando l’approccio e sfruttando al meglio le nostre abilità. Il possibile scenario offerto oggi dall’intelligenza artificiale ci sembra più che mai infinito. Se da un lato persiste un profondo desiderio di progresso non manca il timore che tutta questa tecnologia possa sfuggire dalle nostre mani. Come il fenomeno deepfake, ovvero la tecnica che combina un’immagine reale a un video preesistente con un effetto profondamente realistico capace anche di alterare la realtà a livello politico. Come costruire un futuro che abbia a che fare con l’intelligenza artificiale e che allo stesso tempo risulti sicuro? Come includere l’intelligenza artificiale per progettare un domani migliore che non rappresenti una minaccia?
Negli ultimi 15 anni la tecnologia, l’intelligenza artificiale, la machine learning hanno fatto passi da giganti, dando luce al mondo del touch, della 3D alteration, degli smartphone, di app che possono, addirittura, valutare lo stato di salute dell’essere umano, monitorarlo costantemente. Se parole come deep fake, chatbot, biohacking (insieme a molte altre) sono ormai entrate nel lessico quotidiano  la sfida dell’intelligenza artificiale è ancora tutta da giocare.
Dietro al modo in cui ci relazioniamo con la tecnologia, con i computer o con le app c’è sempre qualcuno che ha pensato all’uso che di quella tecnologia avremmo fatto. C’è uno studio sulla usabilità fatto da un progettatore che ha pensato a noi che usiamo quella tecnologia e a come la usiamo. Questa si chiama usability e alla usabilità è dedicata una giornata mondiale, il World Usability Day, che chiama a raccolta i progettatori del futuro da ogni parte del globo e che, dal 2014, ha una sua importante edizione italiana, organizzata da Nois3.
Google, Microsoft, Twitter, Dataninja, ma anche Tlon, Pi Campus e molti altri sono gli ospiti di WUDRome 2020, la settima edizione dell’evento italiano, che dall’11 al 13 novembre, vede confrontarsi - online - designer, ricercatori, sviluppatori e professionisti della comunicazione italiani e internazionali per rispondere, nella sua covid edition, a una delle più grandi questioni aperte della contemporaneità: il rapporto tra Intelligenza artificiale ed essere umano, la “Human-centered Artificial Intelligence”.
“In occasione di WUDRome 2020” spiega Carlo Frinolli, CEO e Co-founder di WUDRome “ripercorreremo gli aspetti più importanti legati alla progettazione e alle opportunità (e minacce) con l’intelligenza artificiale: dagli algoritmi (ovvero i modi in cui funzionano) collaborativi, all’etica delle scelte, fino alla sfida della progettazione di un’intelligenza che non sia computazionale, ma emotiva. Scopriremo ambiti di applicazione, casi di studio, pratiche virtuose, rischi applicativi e opportunità che si nascono tra le pieghe di queste nuove tecnologie per metterle al servizio delle persone, dei loro bisogni creando soluzioni tecnologiche abilitanti e inclusive”.

RIPRODUZIONE RISERVATA © Copyright ANSA