Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.
Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.
In evidenza
In evidenza
ANSAcom
ANSAcom - In collaborazione con Capgemini
L'intelligenza artificiale e generativa stanno rapidamente trasformando il panorama della sicurezza informatica. Un nuovo report del Capgemini Research Institute su 1.000 aziende, intitolato "New defenses, new threats: what AI and Gen AI bring to cybersecurity", mette in luce come queste tecnologie offrano innovative opportunità di difesa, ma al contempo introducano minacce complesse.
Per la ricerca, l'IA è ormai considerata una priorità nelle strategie di sicurezza da due terzi delle organizzazioni, principalmente per la capacità di analizzare grandi quantità di dati e identificare modelli di attacco, consentendo di anticipare, rilevare e rispondere alle minacce in modo più efficace. Tuttavia, l'ascesa della tecnologia generativa, con la sua abilità nel generare contenuti sintetici altamente realistici, apre la strada a nuove problematiche. Quasi tutte le compagnie intervistate (97%) affermano di aver riscontrato violazioni o problemi di sicurezza legati all'uso della Gen AI nell'ultimo anno. I criminali informatici possono sfruttare la tecnologia per creare attacchi più sofisticati e difficili da individuare, ampliando la superficie di attacco e scoprendo le debolezze dei sistemi informatici. Oltre due aziende su cinque (43%) hanno dichiarato di aver subito perdite finanziarie derivanti dall'uso di deepfake, contenuti multimediali falsi, generati dai software di intelligenza artificiale. Non a caso, circa 6 organizzazioni su 10 ritengono di dover aumentare il budget destinato alla cybersecurity per rafforzare adeguatamente le proprie difese. Il Capgemini Research Institute evidenzia anche i rischi legati all'uso improprio dell'IA e della Gen AI da parte dei dipendenti. Le inesperienze possono infatti portare a violazioni dei dati e a perdite finanziarie. Quasi tutte le compagnie intervistate, in 12 settori e 13 paesi al mondo, hanno riscontrato problemi di sicurezza legati all'uso dell'intelligenza artificiale generativa, tra cui le cosiddette allucinazioni, ossia risposte errate e fuorvianti, la generazione di contenuti inappropriati e attacchi "prompt injection", che mirano alle vulnerabilità dei modelli di linguaggio di grandi dimensioni, come quelli che alimentano i chatbot e gli assistenti virtuali.
Cresce infine la preoccupazione per la manipolazione dei dati e la possibile fuga di informazioni attraverso gli archivi utilizzati per l'addestramento dei modelli di IA generativa.
Nonostante queste nuove sfide, sia IA che Gen AI si confermano strumenti fondamentali per la cybersecurity. Le organizzazioni devono però adottare un approccio olistico alla sicurezza, investendo in tecnologie avanzate e nella formazione dei dipendenti per mitigare i rischi e sfruttare appieno i benefici offerti da queste potenti tecnologie.
ANSAcom - In collaborazione con Capgemini
Ultima ora