/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Aumentano gli usi illeciti dell'IA, sextortion e ghostbot

Aumentano gli usi illeciti dell'IA, sextortion e ghostbot

Ricatti con false immagini di nudi e vita digitale per i defunti

ROMA, 20 giugno 2023, 10:21

di Titti Santamato

ANSACheck

Artificial Intelligence in Healthcare - New AI Applications in Medicine - RIPRODUZIONE RISERVATA

Artificial Intelligence in Healthcare - New AI Applications in Medicine - RIPRODUZIONE RISERVATA
Artificial Intelligence in Healthcare - New AI Applications in Medicine - RIPRODUZIONE RISERVATA

Immagini di nudi, finte, generate dall'Intelligenza artificiale a scopo di ricatto. Software che danno vita a reincarnazioni dei morti elaborando le impronte digitali lasciate sul web. Il diffondersi dell'IA sta portando avanzamenti in diversi settori, ma anche abusi di questa tecnologia, come appunto la sextortion e i ghostbot. A dare l'allarme l'Fbi e ricercatori inglesi che invitano a proteggere i dati e la propria privacy.

Nel giorni scorsi - come ha riportato Reuters online - l'Fbi ha diramato un'allerta dopo aver ricevuto numerose segnalazioni di diverse vittime della sextortion, una vecchia conoscenza del web che con l'intelligenza artificiale sta conoscendo nuove vette di realismo. Ai malcapitati, anche minori, vengono spedite immagini di nudi generate dall'IA con la minaccia di diffonderle, e così vengono intimiditi a scopo di estorsione. Le immagini appaiono "realistiche" e in alcuni casi sono stati presi di mira i bambini, spiega l'agenzia federale americana, sottolineando che i progressi tecnologici stanno "migliorando continuamente la qualità, la personalizzazione e l'accessibilità della creazione di contenuti abilitati all'intelligenza artificiale".

Tra i consigli forniti dall'Fbi per non cadere in trappola, quello di condividere pochi contenuti online, renderli visibili solo ad un numero limitato di conoscenti e non pubblicare mai foto e video dei bambini, oppure oscurarne il volto. Gli estorsori, per creare dei deepfake a luce rossa setacciano i social media alla ricerca di foto delle loro vittime, ne fanno incetta, e poi le danno in pasto ad un algoritmo di intelligenza artificiale che le rende sessualmente esplicite. Le nostre impronte digitali e i dati provenienti dai social media sono la base anche per creare i ghostbot, software che con l'intelligenza artificiale generano reincarnazioni digitali dei morti (un ologramma del defunto Robert Kardashian, ad esempio, è stato creato e regalato alla figlia Kim). Una ricerca della Queen's University di Belfast pone il problema della mancanza di leggi sulla protezione dei dati post mortem, che potrebbe causare un crescente problema di ghostbot; suggerisce anche una clausola "do not bot me" nei testamenti e in altri contratti che potrebbero impedire alle persone di essere reincarnate digitalmente senza autorizzazione.

"Nel Regno Unito, le leggi sulla privacy e sulla protezione dei dati non si estendono agli eredi dopo la morte", osserva Marisa McVey della School of Law della Queen's University Belfast. Sebbene non si pensi che i ghostbot possano causare danni fisici, "è probabile che possano causare stress emotivo e danni economici, con particolare impatto sui cari e sugli eredi del defunto". La ricerca non solo esamina le potenziali vie legali per proteggere la privacy (compresa quella post-mortem), la proprietà, i dati personali e la reputazione, ma suggerisce anche una maggiore consapevolezza sociale del fenomeno dei ghostbot, l'educazione sulle eredità digitali e la protezione coesa tra le diverse giurisdizioni affinchè "tutto ciò non accada senza il nostro permesso".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza