Dopo le critiche, nei giorni scorsi, all'IA di Microsoft Designer che ha permesso di creare false immagini di nudo di Taylor Swift, il gigante della tecnologia è al centro di un nuovo caso. A sollevarlo è Shane Jones, ingegnere di intelligenza artificiale di Microsoft, che sostiene di aver scoperto all'inizio di dicembre una vulnerabilità nel modello di generazione di immagini Dall-E 3 di OpenAI, azienda di cui il colosso americano è principale investitore, usato anche dal chatbot Copilot. Secondo Jones, gli utenti di strumenti come Bing Image Creator possono usare Dall-E 3 per aggirare le protezioni dell'IA e creare contenuti dannosi.
Dopo aver scoperto la falla, Jones avrebbe segnalato la questione alla direzione, senza ottenere risposta. A quel punto, ha deciso di pubblicare un post su LinkedIn in cui spiega cosa è successo. Solo in quel momento Microsoft l'ha contattato, chiedendo di rimuovere il post. Come riporta Engadget, a causa delle falle scoperte, Dall-E 3 potrebbe rappresentare una minaccia per la sicurezza ed è per questo che Jones ne chiede la rimozione da un accesso pubblico.
Un portavoce di Microsoft ha scritto a Engadget: "Ci impegniamo ad affrontare tutte le preoccupazioni dei dipendenti in conformità con le politiche aziendali e apprezziamo lo sforzo nello studio e nel testare la nostra ultima tecnologia per migliorarne ulteriormente la sicurezza. Quando si tratta di preoccupazioni che potrebbero avere un potenziale impatto sui servizi o partner, abbiamo stabilito solidi canali di segnalazione interni. Gli stessi che abbiamo consigliato al dipendente, in modo da poter convalidare e testare adeguatamente le sue preoccupazioni, prima di condividerle pubblicamente". Microsoft ha aggiunto che il suo Office of Responsible AI ha creato uno strumento di reporting proprio per consentire ai dipendenti di segnalare i timori sui modelli di intelligenza artificiale.
Riproduzione riservata © Copyright ANSA