Rubriche

ChatGpt, le policy di utilizzo non vietano più l'uso militare

Condizioni aggiornate il 10 gennaio: "niente iniziative dannose"

Redazione Ansa

Solo pochi giorni fa, la pagina delle politiche di utilizzo di OpenAi affermava che i sistemi di intelligenza artificiale dell'azienda, come ChatGpt, non potevano essere usati per scopi "militari e di guerra". Le condizioni, come notato dal sito The Intercept sono cambiate e non mostrano più tale dicitura, probabilmente per la collaborazione con la Darpa. Con un aggiornamento del 10 gennaio, OpenAi ha rimosso ogni riferimento allo sviluppo di soluzioni militari tramite i suoi algoritmi, nonostante proibisca ancora "l'uso dei suoi modelli linguistici di grandi dimensioni (Llm) per iniziativa dannose".

Per The Intercept, anche se OpenAI non ha un prodotto capace direttamente di uccidere o causare danni fisici, la tecnologia potrebbe essere utilizzata per la creazione di codice informatico maligno o per realizzare, fattivamente, strumenti bellici. Riguardo al cambiamento nelle politica, il portavoce di OpenAI, Niko Felix, ha dichiarato alla pubblicazione che la società "mira a creare una serie di principi universali che siano facili da ricordare e da applicare, soprattutto perché i nostri strumenti sono utilizzati a livello globale da utenti comuni". Felix ha spiegato che "un principio come il non fare del male agli altri è ampio ma facilmente comprensibile e rilevante in numerosi contesti", aggiungendo che OpenAI "cita specificamente armi e lesioni ad altri come chiari esempi".

Al momento, OpenAI è al lavoro con la Darpa, un'agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie, per strumenti di sicurezza informatica volti a proteggere il software open source da cui dipendono le infrastrutture critiche e l'industria. Per Intercept, questi casi d'uso potrebbero rientrare nel campo "militare", alla base quindi del cambio di prospettiva alle policy del gruppo.

Leggi l'articolo completo su ANSA.it