/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Da ricercatori del Mit un 'vaccino' che blocca la modifica di foto con l'IA

Da ricercatori del Mit un 'vaccino' che blocca la modifica di foto con l'IA

Lavorano su un software che rende difficile la manipolazione

MILANO, 26 luglio 2023, 15:03

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

Si chiama PhotoGuard ed è il software che blocca la possibilità, per un'intelligenza artificiale, di riconoscere cosa c'è in una foto, preservandone così l'autenticità. Lo strumento è stato sviluppato presso il laboratorio Csail del Mit di Boston ed è pensato come una sorta di "vaccino" contro le IA che imparano dalle immagini del mondo reale anche per modificarne i dettagli e dare un senso diverso ad una foto.

Creando una sorta di perturbazione a livello di pixel, qualcosa che l'occhio umano non può percepire, PhotoGuard manda in confusione gli algoritmi di IA generativa, come GPT-4 e Dall-e, che non riescono a percepire il "senso" di un'immagine, ad esempio il posizionamento del corpo di una persona ritratta o i suoi occhi, per aggiungere elementi e altri contenuti. Come spiegano gli sviluppatori, adottando questo approccio per qualsiasi immagine gestita da un'intelligenza artificiale, gli algoritmi, anche di nuova generazione, non riusciranno a produrre artefatti verosimili, basati sulle foto prese come esempio. Il risultato di una foto "vaccinata" con PhotoGuard e poi modificata con un'IA generativa è un contenuto dall'aspetto irrealistico, dove i volti possono essere sovrapposti a corpi di altre persone ma senza la credibilità che gli algoritmi odierni hanno dimostrato di poter raggiungere, in assenza di contromisure idonee.

"Se da un lato sono lieto di contribuire a trovare una soluzione a questo problema - ha commentato il dottorando Hadi Salman che ha guidato il progetto - dall'altro sono conscio che sia necessario molto lavoro per rendere pratica questa protezione. Le aziende devono investire nella progettazione di immunizzazioni solide che durino nel tempo".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza