Une réalité frustrante pour les créateurs d’aujourd’hui est que leur travail est exposé à l’entraînement de l’IA. Les entreprises technologiques développant des IA génératives telles que ChatGPT, Gemini, DeepSeek, Stable Diffusion et Midjourney ont besoin de jeux de données massifs pour entraîner leurs modèles, et elles ont aspiré l’internet public pour ce faire.
Cela a soulevé d’importantes questions sur le consentement, l’attribution et le contrôle du travail créatif une fois qu’il est partagé en ligne.
Si vous cherchez des moyens de mieux protéger vos données créatives, ce guide présente des mesures pratiques que vous pouvez prendre pour réduire l’utilisation de votre travail dans l’entraînement de l’IA, tout en continuant à interagir avec internet selon vos propres termes.
- Comment l’entraînement de l’IA sur du contenu public peut mettre le travail créatif en danger
- Comment empêcher l’IA d’utiliser votre art
- Votre art est une donnée sensible
Comment l’entraînement de l’IA sur du contenu public peut mettre le travail créatif en danger
Les outils d’IA générative nécessitent une grande quantité de données pour fonctionner, et une grande partie de ces données proviennent d’internet. OpenAI a déclaré publiquement(nouvelle fenêtre) qu’il serait « impossible » d’entraîner une IA comme ChatGPT sans accès à du matériel protégé par le droit d’auteur trouvé en ligne.
Les œuvres créatives provenant de portfolios en ligne, de plateformes de réseaux sociaux et de blogs sont utilisées pour entraîner ces modèles sans consentement ni attribution. Par exemple, Meta a admis(nouvelle fenêtre) avoir aspiré des publications, photos et commentaires Facebook et Instagram partagés publiquement remontant à 2007 pour entraîner ses modèles d’IA générative. Cela signifie que tout travail créatif que vous avez déjà partagé publiquement sur ces plateformes — comme des photos de mariage, des clichés de portfolio ou des illustrations — pourrait être utilisé pour l’entraînement de l’IA, à moins que vous n’ayez réglé la visibilité sur privé.
Les entreprises d’IA ont soutenu dans des procès(nouvelle fenêtre) en cours que l’entraînement sur des données aspirées sur internet relève du « fair use » (usage loyal). En même temps, elles traitent les modèles et jeux de données résultants comme des actifs propriétaires. Les conditions d’utilisation du service d’OpenAI interdisent « l’utilisation de la Sortie pour développer des modèles qui concurrencent OpenAI », et l’entreprise a accusé DeepSeek de copier « de manière inappropriée »(nouvelle fenêtre) ses modèles — les mêmes modèles entraînés sur des données internet publiquement disponibles.
Ce double standard apparent aide à expliquer pourquoi de nombreux créateurs sentent que leur travail est vulnérable à l’entraînement de l’IA sans leur consentement, crédit ou compensation. Cela soulève également des questions plus larges sur la façon dont le contenu « publiquement disponible » est interprété, en particulier lorsque le travail créatif est partagé sur des plateformes dont les licences limitent explicitement la réutilisation non autorisée ou l’exploitation commerciale. En conséquence, de nombreux artistes, écrivains et photographes s’opposent de plus en plus à l’aspiration de données par l’IA.
Comment empêcher l’IA d’utiliser votre art
Avec des tribunaux rendant encore des décisions au cas par cas et aucune norme juridique claire en place, les créateurs ne peuvent pas compter uniquement sur le système juridique pour protéger leur travail. En attendant, il existe des mesures pratiques que vous pouvez prendre dès maintenant pour réduire la façon dont votre travail est utilisé dans l’entraînement de l’IA.
Aucune de ces stratégies n’est infaillible, cependant ; les outils de protection et les entreprises d’IA essaient toujours de se déjouer mutuellement. Pour l’instant, considérez-les comme des parties individuelles de votre armure qui fonctionnent mieux collectivement. Voici les meilleures façons de vous donner plus de contrôle sur vos données créatives :
Masquer votre style artistique
Les outils de masquage comme Glaze(nouvelle fenêtre) rendent plus difficile pour les modèles d’IA de s’entraîner sur votre travail en apportant de minuscules modifications aux pixels qui embrouillent les modèles d’IA. L’image apparaît telle que prévue aux humains, mais pour un aspirateur d’IA, elle est enregistrée comme un style différent ou déformé.
« Empoisonner » votre œuvre
En utilisant des outils comme Nightshade(nouvelle fenêtre), vous pouvez rendre vos œuvres toxiques pour les aspirateurs d’IA. Une image « empoisonnée » contient des changements subtils et invisibles qui interfèrent avec l’entraînement de l’IA, amenant le système à mal interpréter ce qu’il voit, comme des voitures au lieu de chats, ou des clouds au lieu d’avions. Avec le temps, si suffisamment d’images empoisonnées sont utilisées pour l’entraînement, ces mauvaises associations peuvent se montrer dans les futures versions du modèle.
Cependant, les protections techniques comme Glaze et Nightshade ne sont pas infaillibles, et la recherche(nouvelle fenêtre) montre qu’elles peuvent être affaiblies à mesure que les systèmes d’IA évoluent.
Refuser l’entraînement de l’IA
Si votre travail existe en ligne, il y a de fortes chances qu’il ait été aspiré dans un modèle d’IA. En utilisant des sites internet comme Have I Been Trained(nouvelle fenêtre) et l’AI Watchdog(nouvelle fenêtre) de The Atlantic, vous pouvez vérifier si vos images, écrits ou autres travaux créatifs apparaissent dans des jeux de données connus utilisés pour entraîner des modèles d’IA. Le premier vous permet de soumettre votre travail à un registre « Do Not Train », où les entreprises participantes peuvent identifier et exclure ces images des futures sessions d’entraînement. Cependant, ces mesures sont volontaires, dépendent de la volonté des entreprises individuelles de les respecter, et n’affectent pas les modèles qui ont déjà été entraînés en utilisant votre travail.
Si vous vivez dans l’UE, vous pouvez utiliser les lois de protection des données comme le GDPR(nouvelle fenêtre) (RGPD) à votre avantage en demandant aux entreprises d’exclure votre contenu de l’entraînement de l’IA. Certaines entreprises ont des processus de refus enfouis dans les paramètres de leurs applications ; par exemple, voici comment refuser l’utilisation des données par Meta AI sur Facebook, Instagram et WhatsApp.
Verrouiller vos paramètres de confidentialité
Réduisez ce que vous publiez publiquement sur les réseaux sociaux et assurez-vous que votre profil est réglé sur privé. Moins le contenu est accessible ouvertement, plus il est difficile à aspirer par des systèmes d’IA externes. Mais cela peut ne pas suffire pour vous protéger de la plateforme elle-même, car de nombreuses entreprises intègrent de plus en plus de fonctionnalités d’IA — comme Meta utilisant toutes les interactions Meta AI pour l’entraînement et les publicités — soulevant des questions sur la façon dont le contenu public et privé peut être utilisé au fil du temps. Il est préférable d’éviter d’utiliser les réseaux sociaux comme votre archive principale ou votre portfolio.
Soyez intentionnel concernant le partage public
Lorsque vous publiez publiquement pour atteindre votre audience, partagez des versions plus petites, de plus basse résolution ou filigranées de votre travail. Gardez les fichiers de pleine qualité stockés dans des sauvegardes hors ligne ou des services cloud qui n’utilisent clairement pas de contenu privé pour l’entraînement de l’IA.
Stocker et partager des fichiers en toute sécurité
À mesure que les outils d’IA deviennent plus profondément intégrés dans les principales plateformes — comme Google ajoutant Gemini partout, y compris dans Google Drive et Gmail — les gens sont de plus en plus prudents quant à la façon de stocker et de partager leur travail.
Proton Drive fournit un espace de stockage chiffré de bout en bout et le partage pour vos photos, vidéos, albums, documents, feuilles de calcul et autres fichiers. Nous ne collectons, traitons, partageons jamais vos données avec des tiers, ni ne les utilisons pour l’entraînement de l’IA. Contrairement à la Big Tech, Proton est entièrement soutenu par notre communauté d’abonnés payants plutôt que par la publicité ou l’utilisation des données.
Vous pouvez partager des liens protégés par mot de passe, définir des dates d’expiration, permettre à des personnes spécifiques d’accéder uniquement par message et révoquer l’accès à tout moment. Vous pouvez également collecter des fichiers en toute sécurité auprès de personnes sans Proton Account.
Utiliser une IA privée sans renoncer au contrôle
Si vous voulez les avantages de l’IA sans renoncer au contrôle sur votre travail, et sans craindre qu’un futur changement de politique puisse soudainement transformer vos fichiers en données d’entraînement, utilisez notre assistant IA privé(nouvelle fenêtre). Lumo ne s’entraîne jamais sur vos fichiers ou conversations, et il est basé sur du code open source, ce qui signifie que n’importe qui peut vérifier nos affirmations.
Lumo s’intègre à Proton Drive, vous permettant de travailler en toute sécurité avec vos fichiers et de générer des images, sans contribuer à l’écosystème d’aspiration de l’IA contre lequel tant d’individus et d’organisations s’opposent activement.
Votre art est une donnée sensible
Stopper le vol d’art par l’IA ne signifie pas rejeter l’IA complètement. Mais cela signifie reconnaître que le travail créatif est une donnée sensible, qu’il s’agisse d’une illustration, d’un roman ou d’une chanson. Les créateurs méritent l’autonomie et un traitement équitable, y compris la capacité de décider comment et si leur travail est utilisé.
Aucune stratégie unique ne peut empêcher totalement les systèmes d’IA d’absorber du contenu publiquement disponible — et dans certains cas, du contenu privé exposé indirectement — dans leur entraînement. Et les entreprises d’IA voudront vous faire croire qu’il n’y a aucun moyen de construire des outils d’IA sans utiliser vos données. Nous ne sommes pas d’accord(nouvelle fenêtre).
Jusqu’à ce que les régulateurs et les tribunaux fournissent des directives plus claires, l’approche la plus efficace est d’être proactif quant à la façon dont vous interagissez avec internet et de choisir des plateformes qui respectent clairement votre vie privée et vos droits créatifs.