Rubriche

Ue a Big Tech, per Europee etichettare contenuti generati da IA

Pubblicate le linee guida a tutela dell'integrità delle elezioni

Ue a Big Tech, per Europee etichettare contenuti generati da IA

Redazione Ansa

In vista delle elezioni europee di giugno, l'Ue ha invitato colossi tech come Facebook, X e TikTok a mitigare i rischi specifici connessi all'intelligenza artificiale, ad esempio utilizzando delle etichette che indichino chiaramente i contenuti, come i deepfake, generati con la nuova tecnologia.

La raccomandazione fa parte di una serie di linee guida elaborate dalla Commissione europea nel quadro della legge per i servizi digitali (Dsa), con l'obiettivo di preservare l'integrità dei processi elettorali, contrastando la disinformazione la cui portata rischia di essere amplificata con il diffondersi dell'IA.

Alle piattaforme viene chiesto di prendere anche altre misure, tra cui l'introduzione di un meccanismo di risposta agli incidenti per ridurne l'impatto sull'esito delle elezioni o sull'affluenza alle urne. L'Ue suggerisce, inoltre, di dotarsi di squadre dotate di risorse adeguate e di utilizzare le analisi e le informazioni disponibili sui rischi locali e sull'uso dei loro servizi da parte degli utenti per cercare informazioni prima, durante e dopo le elezioni, migliorando così le misure di mitigazione.

"Il 2024 è un anno significativo per le elezioni. Per questo motivo, con gli orientamenti odierni stiamo sfruttando appieno tutti gli strumenti offerti dalla legge sui servizi digitali per garantire che le piattaforme rispettino i loro obblighi e non siano utilizzate impropriamente per manipolare le nostre elezioni, salvaguardando al contempo la libertà di espressione" ha commentato il commissario europeo al Mercato Interno.

Le linee guida sono indirizzate a motori di ricerca e piattaforme digitali molto grandi, come designate ai sensi del Dsa, principale strumento dell'Ue per limitare le Big Tech, soprattutto per quanto riguarda la moderazione dei contenuti.

Leggi l'articolo completo su ANSA.it