Non solo immagini, video, idee per
un romanzo e un'email: l'intelligenza artificiale generativa può
rappresentare uno strumento utile anche a proteggere la
navigazione degli utenti online. Nel corso del 2023, Google ha
fatto affidamento proprio sull'IA di nuova generazione di Gemini
per bloccare più di 5,5 miliardi di annunci che violavano le
politiche di utilizzo della piattaforma. Si tratta di una media
di oltre 9 mila annunci vietati al minuto. Cifre inserite nel
più recente Google Ads Safety Report, che fa riferimento
all'andamento delle campagne da parte degli inserzionisti nei
precedenti dodici mesi. In generale, il colosso americano ha
limitato oltre 6,9 miliardi di annunci e sospeso più di 12,7
milioni di inserzionisti per gravi violazioni delle policy,
quasi il doppio di quelli del 2022. Google ha inoltre rimosso
gli annunci da oltre 2,1 miliardi di pagine. Parte del merito
per una simile ascesa nei controlli e quindi nelle valutazioni,
va all'intelligenza artificiale generativa. "I nostri team di
sicurezza utilizzano da tempo sistemi di machine learning basati
sull'IA per applicare le policy su larga scala" spiega Duncan
Lennox, vice presidente e general manager di Ads Privacy and
Safety all'interno di Google. "Sono modelli che però devono
essere aggiornati a differenza dei Large Language Model (Llm)
che invece possono revisionare e interpretare rapidamente grandi
quantità di contenuti, con capacità di ragionamento avanzate,
per scovare in breve tempo annunci fasulli, servizi fraudolenti
e truffe". Nel complesso, Google ha bloccato o rimosso 206,5
milioni di annunci pubblicitari per rappresentazione ingannevole
e 273,4 milioni di annunci pubblicitari sui servizi finanziari.
La lotta contro le pubblicità fraudolente è un impegno continuo
che il gruppo porta avanti anche con organizzazioni come Global
Anti-Scam Alliance e Stop Scams Uk.
Riproduzione riservata © Copyright ANSA