/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Falla in Dall-E 3 permette di creare immagini vietate

Falla in Dall-E 3 permette di creare immagini vietate

Un ingegnere di Microsoft ha aggirato le protezioni

MILANO, 01 febbraio 2024, 14:29

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

Dopo le critiche, nei giorni scorsi, all'IA di Microsoft Designer che ha permesso di creare false immagini di nudo di Taylor Swift, il gigante della tecnologia è al centro di un nuovo caso. A sollevarlo è Shane Jones, ingegnere di intelligenza artificiale di Microsoft, che sostiene di aver scoperto all'inizio di dicembre una vulnerabilità nel modello di generazione di immagini Dall-E 3 di OpenAI, azienda di cui il colosso americano è principale investitore, usato anche dal chatbot Copilot. Secondo Jones, gli utenti di strumenti come Bing Image Creator possono usare Dall-E 3 per aggirare le protezioni dell'IA e creare contenuti dannosi.

Dopo aver scoperto la falla, Jones avrebbe segnalato la questione alla direzione, senza ottenere risposta. A quel punto, ha deciso di pubblicare un post su LinkedIn in cui spiega cosa è successo. Solo in quel momento Microsoft l'ha contattato, chiedendo di rimuovere il post. Come riporta Engadget, a causa delle falle scoperte, Dall-E 3 potrebbe rappresentare una minaccia per la sicurezza ed è per questo che Jones ne chiede la rimozione da un accesso pubblico.

Un portavoce di Microsoft ha scritto a Engadget: "Ci impegniamo ad affrontare tutte le preoccupazioni dei dipendenti in conformità con le politiche aziendali e apprezziamo lo sforzo nello studio e nel testare la nostra ultima tecnologia per migliorarne ulteriormente la sicurezza. Quando si tratta di preoccupazioni che potrebbero avere un potenziale impatto sui servizi o partner, abbiamo stabilito solidi canali di segnalazione interni. Gli stessi che abbiamo consigliato al dipendente, in modo da poter convalidare e testare adeguatamente le sue preoccupazioni, prima di condividerle pubblicamente". Microsoft ha aggiunto che il suo Office of Responsible AI ha creato uno strumento di reporting proprio per consentire ai dipendenti di segnalare i timori sui modelli di intelligenza artificiale.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza