/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Apple: no profit chiede ritiro sistema anti pedopornografia

Apple: no profit chiede ritiro sistema anti pedopornografia

Eff, bene ripensamento ma ora abbandonare piani

MILANO, 07 settembre 2021, 11:39

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

Dopo il ripensamento da parte di Apple, la Electronic Frontier Foundation (Eff), l'organizzazione internazionale no profit che tutela i diritti digitali, chiede al colosso di Cupertino di abbandonare definitivamente il lancio dello strumento anti pedopornografia che scansiona le immagini caricate sugli iPhone. Con una dichiarazione, il gruppo si è detto soddisfatto che Apple abbia ascoltato le preoccupazioni sul pericolo che strumenti di scansione degli smartphone possano aprire la porta a violazioni più ampie, ma adesso chiede di più.

"Bisogna andare oltre il semplice ascolto e abbandonare completamente i piani che prevedono di inserire una backdoor nella crittografia", spiega la Eff in una nota.

Ad oggi, sono arrivate circa 90 segnalazioni da parte di altrettante organizzazioni in tutto il mondo, che hanno invitato l'azienda a non implementare le funzionalità per il rilevamento automatico di CSAM, acronimo di Child Sexual Abuse Material. Secondo tali organizzazioni, il mix di intelligenza artificiale e intervento umano potrebbe portare a operazioni di violazione della privacy, censura e ulteriori problemi di sicurezza. Apple aveva annunciato i primi di agosto che stava mettendo a punto un metodo per contrastare la pedopornografia, spiegando che è basato su codici cifrati e non mette a rischio la privacy.

L'azienda il 3 settembre scorso ha poi deciso di ritardarne l'attuazione "sulla base del feedback di clienti, gruppi di difesa e ricercatori" per "raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità".
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

Guarda anche

O utilizza