/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

La battaglia per proteggere la creatività umana dall’IA generativa

La battaglia per proteggere la creatività umana dall’IA generativa

La European Guild For AI Regulation (EGAIR) riunisce oltre 100.000 creativi che si battono affinché le aziende tech non usino senza permesso le loro opere il training dell’IA. Rischio globale per l’intero settore

21 dicembre 2023, 14:14

Redazione ANSA

ANSACheck

La battaglia per proteggere la creatività umana dall’IA generativa - RIPRODUZIONE RISERVATA

La battaglia per proteggere la creatività umana dall’IA generativa -     RIPRODUZIONE RISERVATA
La battaglia per proteggere la creatività umana dall’IA generativa - RIPRODUZIONE RISERVATA

Di Alessio Jacona*

Dietro ogni grande intelligenza artificiale generativa c’è il talento di migliaia di artisti in carne ed ossa. La creatività di quegli esseri umani che, in quest’epoca come in quelle precedenti, illuminano il mondo e ne ricostruiscono il senso con la loro arte e le loro opere. Sistemi di IA come Dall-e, Midjourney, Stable Diffusion, e poi ora anche GPT-4 o Gemini sono oggi capaci di creare immagini da una semplice descrizione testuale - o prompt - perché sono stati addestrati utilizzando centinaia di migliaia di opere di artisti, disegnatori, fotografi umani.

 

Sulla carta, potrebbe essere uno splendido esempio di alleanza tra essere umano e macchina: la conferma di come la potenza dell’IA generativa debba la sua esistenza alla creatività umana, quella stessa creatività di cui poi si dovrebbe mettere al servizio, moltiplicandola. Invece no.

 

Dati rubati

Come spiegano all’Osservatorio IA Lorenzo Ceccotti e Francesco Archidiacono, promotori della European Guild For AI Regulation (EGAIR, l’associazione che riunisce oltre 100.000 creativi, artisti visuali, fumettisti, illustratori, doppiatori insieme a case editrici e sindacati professionali di diversi Paesi europei), l'addestramento delle principali IA generative è stato fatto su milioni di immagini coperte da copyright, foto private e altro materiale sensibile senza alcun consenso da parte dei legittimi proprietari. Un'enorme quantità di dati raccolta con un’operazione di scraping (letteralmente: estrazione) indiscriminato, svolto in tutto il web.

 

«L’idea della nostra associazione nasce nella primavera 2022 con una riflessione sull’attività di alcune aziende tech che avevano un business model predatorio sui dati degli utenti - spiega infatti Lorenzo Ceccotti - e con l’affermarsi dei primi modelli generativi fondazionali, come ad esempio Midjourney e GPT, quando ancora questa tecnologia era nella fase iniziale di sviluppo ma già se ne intuiva la problematicità». Gli associati di EGAIR sono stati «i primi in Europa a sollevare il problema - aggiunge Francesco Archidiacono - e con il nostro manifesto abbiamo contribuito in maniera sostanziale alla discussione che ha portato alla stesura dell’AI Act europeo, appena approvato».

 

Il manifesto di EGAIR

Il manifesto cui fa riferimento Archidiacono è un documento in cui l’associazione riassume le proprie posizioni e richieste, ma anche e soprattutto un atto d’accusa: in esso si stigmatizza come lo sfruttamento del lavoro e dei dati dei creativi «non rispetta i requisiti minimi imposti dai diritti umani che regolano la nostra società». E poi anche come questo approccio starebbe «danneggiando severamente il mercato creativo, segnandolo potenzialmente per sempre», dando inizio a una crisi che «colpirà ogni tipologia di lavoro, creativo o no». Insomma, il problema non è l’IA generativa, che pure molti creativi già usano, ma il modo con cui essa viene sviluppata.

 

Ma come si è arrivati fino a questo punto? Negli Stati Uniti esiste la disposizione legislativa del fair use, secondo cui è possibile utilizzare materiali protetti dal diritto d’autore senza chiedere l’autorizzazione quando le si utilizza ad esempio per la ricerca scientifica: così  molte start-up che operano nell’intelligenza artificiale hanno potuto rastrellare sul web enormi quantità di opere. La questione è che poi si è anche assistito allo spin-off di queste società per creare aziende che invece hanno un manifesto e pubblico intento commerciale, cosa che ha portato i problemi di cui sopra.

 

Tornando all’AI ACT (che comunque è un regolamento solo europeo) i promotori di EGAIR sono riusciti a far includere l’obbligo per le aziende che sviluppano l’IA di documentare e rendere disponibile al pubblico la lista dei dati protetti dal diritto d'autore utilizzati per allenare i sistemi di AI generativa. È una vittoria importante, che però da sola non basta a risolvere la questione, perché allo stato attuale le modalità per chiedere che i propri dati siano esclusi dal training dei modelli di IA - il cosiddetto opting-out - prevede che siano i diretti interessati a consultare le liste che verranno fornite dalle aziende, individuare i contenuti di loro proprietà e chiedere che vengano esclusi.

 

L’AI ACT non basta

Una soluzione che lascia scontenti i membri di EGAIR (tra cui figurano nomi del calibro di Milo Manara, Claire Wendling, e Greg Rutkowksi) per almeno due ottime ragioni: la prima è che recuperare le proprie opere nelle liste interminabili dei materiali usati per il training delle IA sarà un compito difficile, se non quasi impossibile. La seconda ragione è che resta sul tavolo «un problema tecnologico spaventoso», come lo definisce Lorenzo Ceccotti.  «L’opt-out, prevede il diritto a chiedere la rimozione delle proprie opere dal dataset dopo che questo è già stato imparato dalle IA, e per quanto ne sappiamo non esiste al giorno d’oggi il “machine unlearning”, ovvero la possibilità che queste macchini dimentichino  ciò che hanno appreso. L’unico modo per far rispettare i diritti dei cittadini violati  - conclude Ceccotti - sarebbe distruggere gli LLM e ricominciare daccapo il training dopo che i dataset sono stati ripuliti, ma siccome questo non avviene, questo tipo di opt-out si riduce a un’operazione di facciata».

 

Per risolvere quil problema, una strada potrebbe essere specificare che le proprie opere non devono essere incluse nei dati per l’addestramento dell’IA nel momento stesso in cui vengono pubblicate online. Tuttavia non è chiaro come farlo, spiegano i promotori di EGAIR, e poi resta il problema del pregresso: quello che è già stato usato in passato, sembra impossibile da recuperare.

 

Una battaglia globale

Guardando avanti, ora EGAIR punta innanzitutto a monitorare le aziende che sviluppano i modelli di IA per verificare se e come ottempereranno alle nuove regole europee, ma siccome ciò che succede in Europa è solo un pezzo di una battaglia che è globale, l’associazione sta lavorando anche insieme con il Garante per la privacy Italiano e con diverse organizzazioni simili sparse in tutto il mondo, dagli Stati Uniti al Giappone. E poi, ancora, con accademici in varie università, con ii quali si stanno sviluppando strumenti software per proteggere meglio le opere digitali, persino capaci di “rovinare” le IA che ci si addestrano sopra senza permesso.

 

Creatività a rischio

Insomma: la questione resta aperta, c’è ancora molto fare e la posta in gioco è altissima: oltre quanto detto finora, in più c’è che «Le IA generative stanno falciando tutti mestieri entry-level del disegno e della fotografia, come la creazione delle immagini stock, che sono una delle vie d’accesso alla professione del fotografo o del disegnatore,», riflette Francesco Archidiacono. Inoltre, non sono solo i “piccoli” a rischio, ma anche gli artisti affermati. Esemplare in questo senso è il caso del grande illustratore fantasy Greg Rutkowksi: «Qualche tempo fa l’autore è stato scelto come esempio per chi volesse provare le potenzialità dell’IA generativa Stable Diffusion - racconta Lorenzo Ceccotti - ora, a parte che ciò è avvenuto senza la sua autorizzazione, la conseguenza è stata che la rete è stata invasa di immagini generate dall’IA che copiavano il suo stile rendendo di fatto impossibile trovare il suo lavoro in mezzo a migliaia di falsi». Adesso il problema si sta allargando anche ad altri autori, come ad esempio l’artista e illustratrice Kelly Mckernan, che di recente ha scritto un post in cui lamentava come nelle ricerche di Google, accanto alla sua biografia, comparissero immagini non sue ma create con l’IA copiando il suo stile. È uno dei paradossi generati dalla diffusione delle IA generative: «Da un lato, inibiscono l’accesso alla professione e l’eventuale successo di chi è ancora sconosciuto - conclude Ceccotti - mentre dall’altro rimandano nell’oblio quelli che invece famosi già lo sono, sommergendo di contenuti contraffatti». Con il rischio che, alla fine, non resti più nessun artista umano.

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza