Molti sostengono che quando l’IA crea immagini grazie alle opere d’arte si tratti di un vero e proprio furto. Ecco cosa c’è di vero.
Chi genera immagini basati sull’intelligenza artificiale, come DALL·E 2, Stable Diffusion o Midjourney, sicuramente saprà già quanto velocemente stiano migliorando. Si tratta di piattaforme che permettono di creare immagini a partire da un “prompt”, ovvero da un testo inventato e scritto dall’utente. Attualmente, però, è in corso un serio dibattito sulla legittimità di questo utilizzo dell’IA. Questo perché usare e promuovere questi strumenti potrebbe significare collaborare a un furto vero e proprio. Il problema dell’uso di contenuti protetti da proprietà intellettuale per addestrare le IA è al momento uno dei più discussi nell’ambito. Vediamo insieme quanto effettivamente si tratti di un furto.
IA e opere d’arte ricreate, è un furto?
Molti artisti sostengono che l’Intelligenza Artificiale “rubi” le loro opere. Nel 2023 si è aperta una causa di alcune artiste contro alcune aziende del settore che starebbero allenando l’AI con le loro opere. Tutto senza previo consenso e quindi, ovviamente, senza alcun pagamento. Molte aziende dicano che i loro motori generativi usino come modello le immagini senza copyright che trovano su internet. Secondo queste artiste, invece, le AI leggono e analizzano moltissime immagini coperte da diritto d’autore così da sviluppare la capacità di realizzare delle nuove immagini.
Il software Stable Diffusion di Stability AI potrebbe essere stato allenato studiando senza permesso 5 miliardi di immagini protette da diritto d’autore (la causa infatti è attualmente in corso). Se fosse vero, la cosa creerebbe danni non indifferenti:
- il primo è che si tratterebbe a tutti gli effetti di un furto di opere d’arte;
- il secondo è che, stando ai creativi, questi software sarebbero usati per creare lavori “falsi”. Questo toglierebbe la possibilità di lavoro e di diffusione agli autori e autrici originali.
Persino grandi aziende come Getty Images hanno portato in tribunale diverse compagnie che usano l’IA generativa per furto di opere d’arte.
Gli artisti dovrebbero tutelarsi
Per “tutelare” o meglio contrastare questa superficialità di alcune aziende è stato inventato Nightshade. Si tratta di un software sviluppato dagli informatici del Glaze Project dell’Università di Chicago sotto la guida del professor Ben Zhao. Questo funziona essenzialmente mettendo l’IA contro l’IA. In pratica, consente agli artisti di aggiungere delle “modifiche invisibili” ai pixel delle loro opere d’arte prima di caricarle online. Così che, se “raschiate” dai vari generatori di immagini, vengano “lette” in modo sbagliato andando a rovinare il programma che le copia, anche permanentemente.
Usare questo tipo di strumento per avvelenare i dati di addestramento dell’IA potrebbe danneggiarne i modelli di apprendimento e porterebbe questi ultimi a confondere gli elementi. Come ad esempio, il sole con la pioggia o il cane con un gatto. Nightshade è disponibile online per chiunque voglia scaricarlo.