Una realtà frustrante per i creator di oggi è che il loro lavoro è esposto all’addestramento dell’IA. Le aziende tecnologiche che sviluppano IA generativa come ChatGPT, Gemini, DeepSeek, Stable Diffusion e Midjourney necessitano di enormi set di dati per addestrare i loro modelli e per farlo hanno effettuato lo scraping di Internet pubblico.

Ciò ha sollevato importanti questioni su consenso, attribuzione e controllo del lavoro creativo una volta condiviso online.

Se cerchi modi per proteggere meglio i tuoi dati creativi, questa guida delinea passaggi pratici che puoi intraprendere per ridurre l’utilizzo del tuo lavoro nell’addestramento dell’IA, continuando a interagire con Internet alle tue condizioni.

Come l’addestramento dell’IA su contenuti pubblici può mettere a rischio il lavoro creativo

Gli strumenti di IA generativa richiedono una grande quantità di dati per funzionare e gran parte di questi dati proviene da Internet. OpenAI ha dichiarato pubblicamente(nuova finestra) che sarebbe “impossibile” addestrare un’IA come ChatGPT senza accedere a materiale protetto da copyright trovato online.

Le opere creative presenti su portfolio online, piattaforme di social media e blog vengono utilizzate per addestrare questi modelli senza consenso o attribuzione. Ad esempio, Meta ha ammesso(nuova finestra) di aver effettuato lo scraping di post, foto e commenti condivisi pubblicamente su Facebook e Instagram risalenti al 2007 per addestrare i suoi modelli di IA generativa. Ciò significa che qualsiasi lavoro creativo tu abbia mai condiviso pubblicamente su quelle piattaforme — come foto di matrimoni, scatti di portfolio o illustrazioni — potrebbe essere utilizzato per l’addestramento dell’IA a meno che tu non abbia impostato la visibilità su privato.

Le aziende di IA hanno sostenuto in cause legali(nuova finestra) in corso che l’addestramento su dati prelevati da Internet rientra nel “fair use”. Allo stesso tempo, trattano i modelli e i set di dati risultanti come risorse proprietarie. I termini di servizio di OpenAI vietano di “utilizzare l’Output per sviluppare modelli che competono con OpenAI” e l’azienda ha accusato DeepSeek di aver copiato “inappropriatamente”(nuova finestra) i suoi modelli — gli stessi modelli addestrati su dati Internet pubblicamente disponibili.

Questo apparente doppio standard aiuta a spiegare perché molti creator sentano che il loro lavoro è vulnerabile all’addestramento dell’IA senza il loro consenso, credito o compenso. Solleva anche questioni più ampie su come vengono interpretati i contenuti “pubblicamente disponibili”, in particolare quando il lavoro creativo è condiviso su piattaforme le cui licenze limitano esplicitamente il riutilizzo non autorizzato o lo sfruttamento commerciale. Di conseguenza, molti artisti, scrittori e fotografi si stanno sempre più opponendo allo scraping dei dati da parte dell’IA.

Come impedire all’IA di usare la tua arte

Con i tribunali che emettono ancora decisioni caso per caso e senza uno standard legale chiaro, i creator non possono affidarsi solo al sistema legale per proteggere il proprio lavoro. Nel frattempo, ci sono passaggi pratici che puoi intraprendere subito per ridurre l’utilizzo del tuo lavoro nell’addestramento dell’IA.

Nessuna di queste strategie è infallibile, però; gli strumenti di protezione e le aziende di IA cercano sempre di superarsi a vicenda. Per ora, pensale come parti individuali della tua armatura che funzionano meglio collettivamente. Questi sono i modi migliori per darti maggiore controllo sui tuoi dati creativi:

Occulta il tuo stile artistico

Strumenti di occultamento come Glaze(nuova finestra) rendono più difficile per i modelli di IA addestrarsi sul tuo lavoro apportando minuscole modifiche ai pixel che confondono i modelli di IA. L’immagine appare come previsto agli esseri umani, ma per uno scraper di IA risulta come uno stile diverso o distorto.

“Avvelena” le tue opere d’arte

Usando strumenti come Nightshade(nuova finestra), puoi rendere le tue opere d’arte velenose per gli scraper di IA. Un’immagine “avvelenata” contiene cambiamenti sottili e invisibili che interferiscono con l’addestramento dell’IA, portando il sistema a interpretare erroneamente ciò che sta vedendo, come auto al posto di gatti, o nuvole al posto di aerei. Nel tempo, se vengono utilizzate abbastanza immagini avvelenate per l’addestramento, quelle associazioni errate possono apparire nelle versioni future del modello.

Tuttavia, le protezioni tecniche come Glaze e Nightshade non sono infallibili e la ricerca(nuova finestra) mostra che potrebbero indebolirsi man mano che i sistemi di IA si evolvono.

Scegli di non partecipare all’addestramento dell’IA

Se il tuo lavoro esiste online, è probabile che sia stato prelevato per un modello di IA. Utilizzando siti web come Have I Been Trained(nuova finestra) e AI Watchdog(nuova finestra) di The Atlantic, puoi controllare se le tue immagini, scritti o altri lavori creativi appaiono in set di dati noti utilizzati per addestrare modelli di IA. Il primo ti consente di inviare il tuo lavoro a un registro “Do Not Train” (Non addestrare), dove le aziende partecipanti possono identificare ed escludere quelle immagini dalle future sessioni di addestramento. Tuttavia, queste misure sono volontarie, dipendono dalla volontà delle singole aziende di rispettarle e non influenzano i modelli che sono già stati addestrati utilizzando il tuo lavoro.

Se vivi nell’UE, puoi sfruttare le leggi sulla protezione dei dati come il GDPR(nuova finestra) a tuo vantaggio richiedendo alle aziende di escludere i tuoi contenuti dall’addestramento dell’IA. Alcune aziende hanno processi di opt-out nascosti nelle impostazioni delle loro app; ad esempio, ecco come scegliere di non partecipare all’utilizzo dei dati di Meta AI su Facebook, Instagram e WhatsApp.

Blinda le tue impostazioni della privacy

Riduci ciò che pubblichi pubblicamente sui social media e assicurati che il tuo profilo sia impostato su privato. Meno contenuti sono apertamente accessibili, più è difficile per i sistemi di IA esterni effettuarne lo scraping. Ma questo potrebbe non bastare per proteggerti dalla piattaforma stessa, poiché molte aziende integrano sempre più funzionalità di IA — come Meta che utilizza tutte le interazioni con Meta AI per addestramento e annunci — sollevando domande su come i contenuti pubblici e privati possano essere utilizzati nel tempo. È meglio evitare di usare i social media come archivio principale o portfolio.

Condividi pubblicamente in modo intenzionale

Quando pubblichi pubblicamente per raggiungere il tuo pubblico, condividi versioni più piccole, a bassa risoluzione o con filigrana del tuo lavoro. Mantieni i file di alta qualità archiviati in backup offline o servizi cloud che chiaramente non utilizzano contenuti privati per l’addestramento dell’IA.

Archivia e condividi file in modo sicuro

Man mano che gli strumenti di IA diventano più profondamente integrati nelle principali piattaforme — come Google che aggiunge Gemini ovunque, inclusi Google Drive e Gmail — le persone sono sempre più caute su come archiviare e condividere il proprio lavoro.

Proton Drive fornisce archiviazione e condivisione crittografate end-to-end per le tue foto, video, album, documenti, fogli di calcolo e altri file. Non raccogliamo, elaboriamo o condividiamo mai i tuoi dati con terze parti, né li utilizziamo per l’addestramento dell’IA. A differenza delle Big Tech, Proton è interamente supportata dalla nostra comunità di abbonati paganti piuttosto che dalla pubblicità o dall’uso dei dati.

Puoi condividere link protetti da password, impostare date di scadenza, concedere l’accesso a persone specifiche solo via email e revocare l’accesso in qualsiasi momento. Puoi anche raccogliere file in modo sicuro da persone senza un account Proton.

Usa un’IA privata senza rinunciare al controllo

Se vuoi i vantaggi dell’IA senza rinunciare al controllo sul tuo lavoro e senza preoccuparti che un futuro cambio di policy possa trasformare improvvisamente i tuoi file in dati di addestramento, usa il nostro assistente IA privato(nuova finestra). Lumo non si addestra mai sui tuoi file o conversazioni ed è basato su codice open source, il che significa che chiunque può verificare le nostre affermazioni.

Lumo si integra con Proton Drive, permettendoti di lavorare in sicurezza con i tuoi file e generare immagini, senza contribuire all’ecosistema di scraping dell’IA a cui così tanti individui e organizzazioni si stanno attivamente opponendo.

La tua arte è un dato sensibile

Fermare il furto d’arte da parte dell’IA non significa rifiutare completamente l’IA. Ma significa riconoscere che il lavoro creativo è un dato sensibile, che si tratti di un’illustrazione, un romanzo o una canzone. I creator meritano arbitrio ed equo trattamento, inclusa la capacità di decidere come e se il loro lavoro viene utilizzato.

Nessuna strategia singola può impedire completamente ai sistemi di IA di assorbire contenuti pubblicamente disponibili — e in alcuni casi, contenuti privati esposti indirettamente — nel loro addestramento. E le aziende di IA vorrebbero farti credere che non c’è modo di costruire strumenti di IA senza usare i tuoi dati. Noi non siamo d’accordo(nuova finestra).

Finché i legislatori e i tribunali non forniranno linee guida più chiare, l’approccio più efficace è essere proattivi su come interagisci con Internet e scegliere piattaforme che rispettino chiaramente la tua privacy e i tuoi diritti creativi.