Una volta che sarà approvata la
direttiva europea sulla lotta alla violenza contro le donne,
fornitori e sviluppatori di modelli di intelligenza artificiale
(IA) potrebbero essere ritenuti responsabili per la creazione di
deepfake sessualmente espliciti. È quanto emerge da un'analisi
del think tank Future of Life Institute che approfondisce un
aspetto della normativa poco dibattuto sebbene molto attuale,
come dimostra la vicenda di Taylor Swift, la pop star vittima di
deepfake porn. Un fenomeno in crescita quest'ultimo che, secondo
il think tank, riguarda almeno il 96% dei casi di deepfake,
ossia immagini, video e audio falsi, ma verosimili, generati
dall'IA, con donne e ragazze che rappresentano il 99% delle
vittime.
"Data la diffusa popolarità dei sistemi di IA che generano
deepfake, l'approccio più efficace per contrastarli è che i
governi istituiscano divieti completi in ogni fase della
produzione e della distribuzione" osserva Future of Life
Institute ritenendo "non sufficiente" la mera criminalizzazione
della produzione e della condivisione di deepfake. "La
responsabilità deve estendersi agli sviluppatori, ai fornitori
di modelli, ai fornitori di servizi e ai fornitori di calcolo
coinvolti nel processo" spiega il think tank.
Secondo gli esperti, alcune disposizioni sui deepfake
contenute nella direttiva potrebbero essere interpretate in
questo senso. Sarebbe, osserva il think tank, "un primo passo
fondamentale per smantellare l'oleodotto che alimenta lo
sfruttamento sessuale attraverso i deepfake". La direttiva, su
cui le istituzioni Ue hanno raggiunto un accordo il mese scorso,
dovrà essere approvata in via definitiva dal Parlamento europeo
e dal Consiglio.
Riproduzione riservata © Copyright ANSA