Rubriche

Meta, comitato vigilanza investigherà su deepfake porno dei vip

I casi riguardano immagini esplicite su Facebook e Instagram

Redazione Ansa

Verificare se le politiche di Meta e le sue applicazioni pratiche sono efficaci nel contrastare le immagini esplicite generate dall'intelligenza artificiale che riguardano le celebrities, deepfake che hanno colpito in passato anche la popolare cantante Taylor Swift. Lo farà l'Oversight Board, il comitato di controllo indipendente che si esprime sulle controversie delle piattaforme del gruppo di Mark Zuckerberg. Il board si è fatto carico di due casi che trattano di immagini di nudi di figure pubbliche generati con l'IA, senza però nominare esplicitamente queste persone.

Un caso riguarda un post su Instagram che mostra un'immagine generata dall'intelligenza artificiale di una donna indiana, Meta ha rimosso il post dopo che l'utente ha presentato ricorso al Board. Il secondo caso riguarda un post su Facebook in un gruppo dedicato all'arte dell'intelligenza artificiale: mostrava "un'immagine generata dall'IA di una donna nuda" somigliante ad "un personaggio pubblico americano" il cui nome figurava anche nella didascalia. Il post è stato rimosso automaticamente ma l'utente ha fatto comunque ricorso al comitato di controllo.

"Prendendo un caso dagli Stati Uniti e uno dall'India, vogliamo verificare se Meta sta proteggendo tutti a livello globale in modo equo", ha spiegato la copresidente del comitato di sorveglianza Helle Thorning-Schmidt. "Sappiamo che Meta è più rapido ed efficace nel moderare i contenuti in alcuni mercati e lingue rispetto ad altri", ha aggiunto.

L'Ovesrsight board pubblicherà la sua decisione nelle prossime settimane, insieme alle raccomandazioni politiche per Meta.

Meta prevede di iniziare a mostrare i contenuti generati dall'intelligenza artificiale con le relative etichette a partire da maggio 2024.

Leggi l'articolo completo su ANSA.it