Emergono maggiori dettagli sull'intrusione informatica subita nel 2023 da OpenAI, l'azienda madre di ChatGpt: i cybercriminali hanno avuto accesso ai sistemi di messaggistica interna della società e hanno rubato dettagli sulla progettazione delle tecnologie di intelligenza artificiale dell'azienda. Lo ha riferito il New York Times. Secondo il rapporto di cui parla la testata nelle indiscrezioni, i cybercriminali non sono però entrati nei sistemi in cui OpenAI ospita e costruisce la sua intelligenza artificiale.
I dirigenti di OpenAI hanno informato della violazione sia i dipendenti in una riunione generale nell'aprile dello scorso anno sia il consiglio di amministrazione dell'azienda, ma hanno deciso di non condividere la notizia pubblicamente poiché nessuna informazione su clienti o partner era stata rubata. I manager, afferma il rapporto, non hanno considerato l'incidente una minaccia alla sicurezza nazionale ritenendo che l'hacker fosse un privato senza legami noti con un governo straniero. La società con sede a San Francisco non ha neanche informato le forze dell'ordine federali della violazione.
I dirigenti di OpenAI nell’aprile del 2023 erano venuti a conoscenza di un'intrusione ai propri sistemi avvenuta a inizio anno, a fine giugno dello stesso anno la violazione è divenuta pubblica. A seguito di ciò, Leopold Aschenbrenner, responsabile del programma tecnico di OpenAI, aveva inviato una nota al consiglio di amministrazione, sostenendo che la società non stesse facendo abbastanza per impedire al governo cinese e ad altri avversari stranieri di rubarne i segreti.
A maggio OpenAI ha dichiarato di aver interrotto cinque operazioni di influenza segrete che cercavano di utilizzare i suoi modelli di intelligenza artificiale per "attività ingannevoli". L'amministrazione Biden si è detta pronta a intesificare gli sforzi di salvaguardia della tecnologia di intelligenza artificiale dalla Cina e dalla Russia.
Sembra che qualche settimana fa alcuni hacker abbiano rilasciato una versione "modificata" di ChatGpt, chiamata "God Mod Gpt" (modalità Dio), con cui chiedere qualsiasi cosa al chatbot, senza alcun limite. Per questo, l'IA ha finito con il fornire risposte anche su temi illegali come la realizzazione di droghe e armi. Pare che questa versione sia stata resa possibile dallo sblocco del codice di sviluppo del modello, attraverso un cosiddetto "jailbreak" informatico.
Riproduzione riservata © Copyright ANSA