Molti sostengono che quando l’IA crea immagini grazie alle opere d’arte si tratti di un vero e proprio furto. Ecco cosa c’è di vero.
Chi genera immagini basati sull’intelligenza artificiale, come DALL·E 2, Stable Diffusion o Midjourney, sicuramente saprà già quanto velocemente stiano migliorando. Si tratta di piattaforme che permettono di creare immagini a partire da un “prompt”, ovvero da un testo inventato e scritto dall’utente. Attualmente, però, è in corso un serio dibattito sulla legittimità di questo utilizzo dell’IA. Questo perché usare e promuovere questi strumenti potrebbe significare collaborare a un furto vero e proprio. Il problema dell’uso di contenuti protetti da proprietà intellettuale per addestrare le IA è al momento uno dei più discussi nell’ambito. Vediamo insieme quanto effettivamente si tratti di un furto.
Molti artisti sostengono che l’Intelligenza Artificiale “rubi” le loro opere. Nel 2023 si è aperta una causa di alcune artiste contro alcune aziende del settore che starebbero allenando l’AI con le loro opere. Tutto senza previo consenso e quindi, ovviamente, senza alcun pagamento. Molte aziende dicano che i loro motori generativi usino come modello le immagini senza copyright che trovano su internet. Secondo queste artiste, invece, le AI leggono e analizzano moltissime immagini coperte da diritto d’autore così da sviluppare la capacità di realizzare delle nuove immagini.
Il software Stable Diffusion di Stability AI potrebbe essere stato allenato studiando senza permesso 5 miliardi di immagini protette da diritto d’autore (la causa infatti è attualmente in corso). Se fosse vero, la cosa creerebbe danni non indifferenti:
Persino grandi aziende come Getty Images hanno portato in tribunale diverse compagnie che usano l’IA generativa per furto di opere d’arte.
Per “tutelare” o meglio contrastare questa superficialità di alcune aziende è stato inventato Nightshade. Si tratta di un software sviluppato dagli informatici del Glaze Project dell’Università di Chicago sotto la guida del professor Ben Zhao. Questo funziona essenzialmente mettendo l’IA contro l’IA. In pratica, consente agli artisti di aggiungere delle “modifiche invisibili” ai pixel delle loro opere d’arte prima di caricarle online. Così che, se “raschiate” dai vari generatori di immagini, vengano “lette” in modo sbagliato andando a rovinare il programma che le copia, anche permanentemente.
Usare questo tipo di strumento per avvelenare i dati di addestramento dell’IA potrebbe danneggiarne i modelli di apprendimento e porterebbe questi ultimi a confondere gli elementi. Come ad esempio, il sole con la pioggia o il cane con un gatto. Nightshade è disponibile online per chiunque voglia scaricarlo.
Pericolo Intelligenza Artificiale: potremmo essere tutti a rischio e non ci accorgeremmo nemmeno dei danni…
Secondo le statistiche le donne sono più tecnologiche degli uomini. Eppure vengono discriminate e faticano…
Non ci penserebbe mai nessuno eppure una semplice app come WhatsApp è pericolosa. Vediamo insieme…
Molti soffrono di dipendenza da smartphone e non lo sanno. Ti sei mai chiesto se…
La tua attenzione è fondamentale se sei un abbonato a Prime, perché la nuova truffa…
Hai un vecchio cellulare in casa e lo tieni come ricordo? Forse sarebbe meglio buttarlo,…