A meno di un mese dalle elezioni americane OpenAI, la casa madre di ChatGpt, ha registrato una serie di tentativi di attori esterni in cui i suoi modelli di intelligenza artificiale sono stati utilizzati per generare contenuti falsi, inclusi articoli e commenti sui social media. Lo ha afferma la società in un rapporto, specificando che nel 2024, fino ad ora, sono stati neutralizzati più di 20 tentativi di questo tipo.
Le minacce - spiega l'analisi - spaziano da articoli di siti generati dall'intelligenza artificiale a post sui social media di account falsi. Gli usi dell'IA legati alle elezioni, scrive OpenAI, "variano in complessità, da semplici richieste di generazione di contenuti a risposte ai post sui social media". , I contenuti si riferivano principalmente alle elezioni negli Stati Uniti e in Ruanda e, in misura minore, alle elezioni in India e nell'Ue. Alla fine di agosto, un'operazione iraniana aveva già utilizzato i prodotti OpenAI per generare "articoli lunghi" e commenti sui social media sulle elezioni americane, così come su altri argomenti.
Il rapporto arriva a meno di un mese dalle elezioni presidenziali Usa del 5 novembre. Al di là degli Stati Uniti, è un anno di significativi appuntamenti elettorali in tutto il mondo, interessano più di 4 miliardi di persone in oltre 40 paesi. L'aumento dei contenuti generati dall'intelligenza artificiale ha portato a gravi preoccupazioni di disinformazione legate alle elezioni, con il numero di deepfake creati in aumento del 900% anno dopo anno, secondo i dati di Clarity, una società di machine learning.
Riproduzione riservata © Copyright ANSA