OpenAI, l'organizzazione dietro il chatbot ChatGpt e il generatore di immagini Dall-e, ha giocato un ruolo attivo nel contrastare la diffusione di disinformazione durante le recenti elezioni presidenziali negli Stati Uniti.
Consapevole del potenziale impatto delle proprie tecnologie, l'azienda ha implementato una serie di misure preventive per evitare che l'intelligenza artificiale venisse utilizzata per manipolare l'opinione pubblica, respingendo oltre 250.000 richieste di generare immagini con Biden, il presidente eletto Trump, Kamala Harris, il neo vicepresidente Vance e il governatore Walz. Attenzione particolare anche a ChatGpt, che è stato programmato per mantenere una posizione neutrale su questioni politiche, evitando di esprimere preferenze o raccomandare candidati, anche quando esplicitamente richiesto dagli utenti. Inoltre, l'IA testuale è stata addestrata per indirizzare i navigatori verso fonti di informazione affidabili.
Ad esempio, alle persone che cercavano notizie sul voto, il chatbot forniva link a CanIVote.org, un portale bipartisan con aggiornamenti verificati sull'andamento elettorale. Come scrive il sito Engadget, non tutti gli sviluppatori di strumenti di IA si sono rivelati attivi come OpenAI nel promuovere la trasparenza. Alcuni software hanno permesso di diffondere deepfake a scopo di propaganda politica, dimostrando che l'intelligenza artificiale richiede una vigilanza costante e un approccio multifattoriale. Uno di questi deepfake mostrava Kamala Harris parlare della sua corsa alla Casa Bianca come rappresentante delle varie diversità degli Stati Uniti. Lo stesso filmato, dimostrato fasullo, è stato condiviso da Elon Musk sul social X.
Riproduzione riservata © Copyright ANSA