/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

IA tra rischi e opportunità nel primo rapporto di Microsoft

IA tra rischi e opportunità nel primo rapporto di Microsoft

In un anno, l'azienda ha creato 30 strumenti di IA responsabile

MILANO, 03 maggio 2024, 14:09

Redazione ANSA

ANSACheck

© ANSA/EPA

Mappare, misurare e gestire i rischi per le applicazioni di intelligenza artificiale generativa durante tutto il loro ciclo di sviluppo. È uno dei punti contenuti nella prima edizione del Responsible AI Transparency Report di Microsoft, nel quale vengono condivise le pratiche dell'azienda nel settore. La società - si legge - ha creato 30 strumenti di intelligenza artificiale responsabile nell'ultimo anno, ampliando il proprio team di intelligenza artificiale responsabile. Il colosso ha inoltre richiesto ai partner che realizzano applicazioni di GenIA di misurare gli eventuali rischi nei progetti, sin dalla fase di ideazione. Per tutti gli utenti, Microsoft ha aggiunto una filigrana nei suoi software che generano o modificano immagini, per etichettarle come realizzate da un modello di IA ed aumentare la comprensione e distinzione con foto reali da parte delle persone. Nell'ottica di creare un ecosistema responsabile, la compagnia ha concesso ai clienti del servizio Azure AI l'accesso a strumenti che sono capaci di rilevare contenuti problematici generati dall'intelligenza artificiale, tra cui quelli che contengono incitamento all'odio, di natura sessuale e autolesionismo, nonché strumenti per valutare i rischi per la sicurezza. Il tutto anche grazie alle segnalazioni degli stessi utilizzatori delle piattaforme. Non a caso, sin dal lancio di Copilot, al tempo Bing Chat, Microsoft ha corretto il tiro con le allucinazioni del chatbot. Le ultime a gennaio, quando sono divenute virali su X immagini di nudo deepfake di celebrità come Taylor Swift, che sarebbero state realizzate con gli strumenti di GenAI di Microsoft Designer. 
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza