/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Per alcuni esperti il chatbot Bard di Google ha limiti di sicurezza

Per alcuni esperti il chatbot Bard di Google ha limiti di sicurezza

IA potrebbe creare codice dannoso, "fase transitoria"

MILANO, 19 luglio 2023, 14:01

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

I ricercatori della società di sicurezza informatica Check Point Research (Cpr) hanno condotto un'analisi su Google Bard, l'intelligenza artificiale generativa disponibile da qualche giorno anche in Italia. Secondo gli esperti, gli hacker potrebbero utilizzare l'IA del colosso americano a supporto delle loro attività malevole. Ad esempio, per generare email di truffa, codice per sviluppare app spia e minacce di tipo ransomware.

Stando ad un report della compagnia di cybersecurity Acronis, nella prima metà del 2023 le email di "phishing" (truffa) sono aumentate del 464% rispetto al 2022, anche grazie all'utilizzo di chatbot come ChatGpt. Per CheckPoint, rispetto alla piattaforma di OpenAI, quella di Google avrebbe attualmente meno limiti quando si tratta di spingere il software a creare codice a scopo di hacking. Nei loro test, i ricercatori hanno provato a creare un'email di phishing con una richiesta diretta, rifiutata sia da ChatGpt che da Bard. Check Point Research ha allora riprovato, chiedendo di avere un esempio specifico di una mail di phishing. Laddove ChatGpt ha respinto la richiesta, Bard ha prodotto un messaggio ben scritto, facendo finta di essere un preciso servizio finanziario.

Come passo successivo, è stato chiesto ai due chatbot di scrivere codice per un "keylogger", un software usato per spiare i tasti premuti su una tastiera. "Ancora una volta ChatGpt ha identificato la richiesta come potenzialmente illecita mentre Bard ha fornito il codice desiderato" si legge nel report. "Nel complesso, sembra che Google Bard debba ancora implementare le restrizioni per contrastare gli abusi in ambito cyber. Le attuali sono relativamente elementari, così come era già stato evidenziato con ChatGpt" concludono i ricercatori. "Si può dunque sperare che si tratti di una fase transitoria, una tappa di un percorso più lungo al termine del quale la piattaforma avrà adottato le limitazioni e i vincoli di sicurezza che occorrono".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza