Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Hi-tech
  1. ANSA.it
  2. Tecnologia
  3. Hi-tech
  4. Robot sempre più umani, rischiano di avere pregiudizi

Robot sempre più umani, rischiano di avere pregiudizi

Intelligenza artificiale già aveva imparato a mentire e bluffare

L'intelligenza artificiale diventa sempre più 'umana', nel bene ma anche nel male: dopo aver imparato a mentire, a bluffare nel poker e a ragionare come uno psicopatico, in futuro potrebbe diventare pure 'schiava' dei pregiudizi, facendosi condizionare da informazioni errate apprese in modo autonomo da altre macchine senza alcun intervento dell'uomo. A tratteggiare questo preoccupante scenario, che mette in allerta gli 'addestratori' di intelligenza artificiale, è lo studio pubblicato sulla rivista Scientific Reports dai ricercatori dell'università britannica di Cardiff e del Massachusetts Institute of Technology (Mit) di Boston.

Sebbene i risultati possano far immaginare futuri robot 'razzisti' pronti a snobbare ed escludere l'uomo, "questi scenari appartengono ancora al mondo della fantascienza: al momento l'intelligenza artificiale non è in grado di formarsi dei pregiudizi in modo autonomo", rassicura Giorgio Buttazzo, docente di ingegneria informatica dell'Istituto TeCIP (Tecnologie della Comunicazione, Informazione, Percezione) della Scuola Superiore Sant'Anna di Pisa. "Questo nuovo studio è un lavoro teorico che, attraverso modelli matematici, prova a simulare delle interazioni sociali fra individui, a prescindere che siano robot o umani. Quello che dimostra - continua l'esperto - è che quando la comunicazione e lo scambio di informazioni avviene tra piccoli gruppi, è più facile che si formino delle conoscenze falsate; se invece la comunicazione è estesa a molti gruppi, e quindi l'informazione arriva da più fonti, cala il rischio di avere pregiudizi. Questi risultati saranno molto utili in futuro, perché in ambito informatico si stanno sviluppando dei sistemi basati su enti autonomi che girano in Rete per acquisire informazioni con cui costruire conoscenza: al momento non sono 'intelligenti', ma fra 30-40 anni lo scenario sarà diverso".

Lo studio rappresenta quindi un monito per i ricercatori che sviluppano le tecniche di apprendimento per l'intelligenza artificiale. "Quando avremo a che fare con sistemi intelligenti e robot che apprendono autonomamente scambiandosi informazioni - sottolinea Buttazzo - dovremo fare molta attenzione a come metterli in comunicazione fra loro, perché potremmo perderne il controllo, soprattutto considerando che l'intelligenza artificiale è destinata a superare quella umana nel giro di pochi anni. Per prevenire questo rischio, dobbiamo capire le strategie migliori per addestrare le macchine e fornire loro non solo pura conoscenza, ma anche regole etiche".

RIPRODUZIONE RISERVATA © Copyright ANSA

Video ANSA



Modifica consenso Cookie