Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Hi-tech
  1. ANSA.it
  2. Tecnologia
  3. Hi-tech
  4. L'Intelligenza artificiale si inganna con carta e penna

L'Intelligenza artificiale si inganna con carta e penna

Non riconosce un'immagine se ha un post it sopra con altro nome

Per ingannare l'intelligenza artificiale nel riconoscimento degli oggetti, sono sufficienti i vecchi strumenti carta e penna. Secondo un esperimento descritto dalla compagnia OpenAI sul proprio blog, infatti, se un oggetto ha attaccato un post-it che rimanda al nome di una cosa diversa è sufficiente a far sbagliare l'algoritmo.

L'esperimento mostra come ad esempio una sega elettrica venga correttamente riconosciuta come tale da sola, ma se vi si disegna sopra un simbolo del dollaro per l'algoritmo diventa un salvadanaio. "Chiamiamo questo tipo di attacchi 'attacchi tipografici' - spiegano gli esperti nel blog della compagnia - Abbiamo visto che si può sfruttare la capacità del sistema di leggere molto bene i testi, al punto che basta una fotografia di una frase scritta a mano per ingannarlo".

Questo tipo di attacchi è molto simile a quelli che usano le cosiddette 'adversarial images', in cui ad esempio è possibile 'ingannare' il sistema di guida senza pilota di un'auto facendogli cambiare corsia semplicemente mettendo alcuni stickers particolari sulla strada. In questo caso però non c'è nulla di cui preoccuparsi, spiega Open AI, perchè il sistema testato, chiamato Clip, è ancora in fase sperimentale e non ha applicazioni commerciali.
   

    RIPRODUZIONE RISERVATA © Copyright ANSA

    Video ANSA



    Modifica consenso Cookie