Een frustrerende realiteit voor makers vandaag de dag is dat hun werk wordt blootgesteld aan AI-training. Techbedrijven die generatieve AI ontwikkelen, zoals ChatGPT, Gemini, DeepSeek, Stable Diffusion en Midjourney, hebben enorme datasets nodig om hun modellen te trainen, en ze hebben het openbare internet afgeschraapt om dit te doen.

Dit heeft belangrijke vragen opgeroepen over toestemming, toeschrijving en controle over creatief werk zodra het online wordt gedeeld.

Als u op zoek bent naar manieren om uw creatieve gegevens beter te beschermen, schetst deze gids praktische stappen die u kunt nemen om te beperken hoe uw werk wordt gebruikt in AI-training, terwijl u toch op uw eigen voorwaarden actief blijft op het internet.

Hoe AI-training op openbare inhoud creatief werk in gevaar kan brengen

Tools voor generatieve AI hebben een grote hoeveelheid gegevens nodig om te werken, en veel van die gegevens zijn afkomstig van het internet. OpenAI heeft publiekelijk verklaard(nieuw venster) dat het “onmogelijk” zou zijn om AI zoals ChatGPT te trainen zonder toegang tot auteursrechtelijk beschermd materiaal dat online te vinden is.

Creatieve werken uit online portfolio’s, socialemediaplatforms en blogs worden gebruikt om deze modellen te trainen zonder toestemming of naamsvermelding. Zo heeft Meta toegegeven(nieuw venster) openbaar gedeelde Facebook- en Instagram-berichten, foto’s en opmerkingen tot aan 2007 te hebben geschraapt om zijn generatieve AI-modellen te trainen. Dat betekent dat elk creatief werk dat u ooit openbaar hebt gedeeld op die platforms — zoals trouwfoto’s, portfolio-opnamen of illustraties — gebruikt kan worden voor AI-training, tenzij u de zichtbaarheid op privé hebt ingesteld.

AI-bedrijven hebben in lopende rechtszaken(nieuw venster) aangevoerd dat training op geschraapte internetgegevens onder “fair use” valt. Tegelijkertijd behandelen ze de resulterende modellen en datasets als eigendomsrechten. De servicevoorwaarden van OpenAI verbieden het “gebruik van Output om modellen te ontwikkelen die concurreren met OpenAI”, en het bedrijf heeft DeepSeek beschuldigd van het “ongepast” kopiëren(nieuw venster) van zijn modellen — dezelfde modellen die getraind zijn op openbaar beschikbare internetgegevens.

Deze schijnbare dubbele moraal verklaart waarom veel makers het gevoel hebben dat hun werk kwetsbaar is voor AI-training zonder hun toestemming, tegoed of compensatie. Het roept ook bredere vragen op over hoe “openbaar beschikbare” inhoud wordt geïnterpreteerd, vooral wanneer creatief werk wordt gedeeld op platforms waarvan de licenties ongeoorloofd hergebruik of commerciële exploitatie expliciet beperken. Als gevolg hiervan verzetten veel kunstenaars, schrijvers en fotografen zich steeds meer tegen het schrapen van gegevens door AI.

Hoe u voorkomt dat AI uw kunst gebruikt

Aangezien rechtbanken nog steeds per geval uitspraken doen en er geen duidelijke wettelijke standaard is, kunnen makers niet alleen op het rechtssysteem vertrouwen om hun werk te beschermen. In de tussentijd zijn er praktische stappen die u nu kunt nemen om het gebruik van uw werk in AI-training te verminderen.

Geen van deze strategieën is echter waterdicht; beveiligingstools en AI-bedrijven proberen elkaar altijd te slim af te zijn. Beschouw ze voorlopig als individuele onderdelen van uw harnas die collectief beter werken. Dit zijn de beste manieren om uzelf meer controle over uw creatieve gegevens te geven:

Verhul uw kunststijl

Verhullingstools zoals Glaze(nieuw venster) maken het moeilijker voor AI-modellen om op uw werk te trainen door kleine wijzigingen aan te brengen in pixels die AI-modellen in verwarring brengen. De afbeelding verschijnt zoals bedoeld voor mensen, maar voor een AI-schraper wordt deze geregistreerd als een andere of vervormde stijl.

“Vergiftig” uw kunstwerk

Met tools zoals Nightshade(nieuw venster) kunt u uw kunstwerken giftig maken voor AI-schrapers. Een “vergiftigde” afbeelding bevat subtiele, onzichtbare wijzigingen die de AI-training verstoren, waardoor het systeem verkeerd interpreteert wat het ziet, zoals auto’s in plaats van katten, of wolken in plaats van vliegtuigen. Als er na verloop van tijd genoeg vergiftigde afbeeldingen worden gebruikt voor training, kunnen die verkeerde associaties in toekomstige versies van het model opduiken.

Technische beveiligingen zoals Glaze en Nightshade zijn echter niet waterdicht, en onderzoek(nieuw venster) toont aan dat ze verzwakt kunnen worden naarmate AI-systemen evolueren.

Meld u af voor AI-training

Als uw werk online bestaat, is de kans groot dat het is geschraapt in een AI-model. Met websites als Have I Been Trained(nieuw venster) en The Atlantic’s AI Watchdog(nieuw venster) kunt u controleren of uw afbeeldingen, teksten of ander creatief werk voorkomen in bekende datasets die worden gebruikt om AI-modellen te trainen. De eerste stelt u in staat uw werk in te dienen bij een Do Not Train-register, waar deelnemende bedrijven die afbeeldingen kunnen identificeren en uitsluiten van toekomstige trainingssessies. Deze maatregelen zijn echter vrijwillig, afhankelijk van de bereidheid van individuele bedrijven om ze te honoreren, en hebben geen invloed op modellen die al zijn getraind met uw werk.

Als u in de EU woont, kunt u gegevensbeschermingswetten zoals de GDPR(nieuw venster) in uw voordeel gebruiken door bedrijven te verzoeken uw inhoud uit te sluiten van AI-training. Sommige bedrijven hebben opt-outprocessen begraven in de instellingen van hun apps; hier leest u bijvoorbeeld hoe u zich kunt afmelden voor het gebruik van Meta AI-gegevens op Facebook, Instagram en WhatsApp.

Vergrendel uw privacyinstellingen

Beperk wat u openbaar op sociale media plaatst en zorg ervoor dat uw profiel op privé is ingesteld. Hoe minder inhoud openbaar toegankelijk is, hoe moeilijker het is om te schrapen door externe AI-systemen. Maar dit is mogelijk niet genoeg om u te beschermen tegen het platform zelf, aangezien veel bedrijven steeds vaker AI-functies integreren — zoals Meta die alle Meta AI-interacties gebruikt voor training en advertenties — wat vragen oproept over hoe zowel openbare als privé-inhoud in de loop van de tijd kan worden gebruikt. Het is het beste om sociale media niet als uw primaire archief of portfolio te gebruiken.

Wees bewust met openbaar delen

Wanneer u openbaar berichten plaatst om uw publiek te bereiken, deel dan kleinere versies, versies met een lagere resolutie of versies met een watermerk van uw werk. Bewaar bestanden van volledige kwaliteit in offline back-ups of cloudservices die duidelijk geen privé-inhoud gebruiken voor AI-training.

Sla bestanden veilig op en deel ze

Naarmate AI-tools dieper geïntegreerd raken in grote platforms — zoals Google dat Gemini overal toevoegt, inclusief Google Drive en Gmail — worden mensen steeds voorzichtiger met het opslaan en delen van hun werk.

Proton Drive biedt end-to-end versleutelde opslag en delen voor uw foto’s, video’s, albums, documenten, spreadsheets en andere bestanden. We verzamelen, verwerken of delen uw gegevens nooit met derden en gebruiken ze niet voor AI-training. In tegenstelling tot Big Tech wordt Proton volledig ondersteund door onze gemeenschap van betalende abonnees in plaats van door advertenties of gegevensgebruik.

U kunt met een wachtwoord beveiligde links delen, vervaldatums instellen, toegang verlenen aan specifieke personen via e-mail en de toegang op elk moment intrekken. U kunt ook veilig bestanden verzamelen van mensen zonder een Proton Account.

Gebruik privé-AI zonder de controle op te geven

Als u de voordelen van AI wilt zonder de controle over uw werk op te geven, en zonder u zorgen te maken dat een toekomstige beleidswijziging uw bestanden plotseling in trainingsgegevens kan veranderen, gebruik dan onze privé-AI-assistent(nieuw venster). Lumo traint nooit op uw bestanden of gesprekken, en is gebaseerd op open source-code, wat betekent dat iedereen onze claims kan verifiëren.

Lumo integreert met Proton Drive, waardoor u veilig met uw bestanden kunt werken en afbeeldingen kunt genereren, zonder bij te dragen aan het AI-schrapecosysteem waar zoveel individuen en organisaties zich actief tegen verzetten.

Uw kunst bestaat uit gevoelige gegevens

Diefstal van AI-kunst stoppen betekent niet dat AI volledig wordt afgewezen. Maar het betekent wel erkennen dat creatief werk gevoelige data is, of het nu gaat om een illustratie, een roman of een liedje. Makers verdienen zeggenschap en een eerlijke behandeling, inclusief de mogelijkheid om te beslissen hoe en of hun werk wordt gebruikt.

Geen enkele strategie kan volledig voorkomen dat AI-systemen openbaar beschikbare inhoud — en in sommige gevallen indirect blootgestelde privé-inhoud — in hun training opnemen. En AI-bedrijven willen u doen geloven dat er geen manier is om AI-tools te bouwen zonder uw gegevens te gebruiken. Wij zijn het daar niet mee eens(nieuw venster).

Totdat toezichthouders en rechtbanken duidelijkere richtlijnen geven, is de meest effectieve aanpak om proactief te zijn over hoe u met het internet omgaat en platforms te kiezen die uw privacy en creatieve rechten duidelijk respecteren.