Una realidad frustrante para los creadores de hoy es que su trabajo está expuesto al entrenamiento de IA. Las empresas tecnológicas que desarrollan IA generativa como ChatGPT, Gemini, DeepSeek, Stable Diffusion y Midjourney necesitan conjuntos de datos masivos para entrenar sus modelos, y han estado recopilando información de la internet pública para hacerlo.

Esto ha planteado preguntas importantes sobre el consentimiento, la atribución y el control sobre el trabajo creativo una vez que se comparte online.

Si buscas formas de proteger mejor tus datos creativos, esta guía describe pasos prácticos que puedes seguir para reducir cómo se usa tu trabajo en el entrenamiento de IA, sin dejar de interactuar con internet bajo tus propios términos.

Cómo el entrenamiento de IA con contenido público puede poner en riesgo el trabajo creativo

Las herramientas de IA generativa requieren una gran cantidad de datos para funcionar, y gran parte de esos datos provienen de internet. OpenAI ha declarado públicamente(ventana nueva) que sería “imposible” entrenar una IA como ChatGPT sin acceso a material con derechos de autor encontrado online.

Las obras creativas de portafolios online, plataformas de redes sociales y blogs se están utilizando para entrenar estos modelos sin consentimiento ni atribución. Por ejemplo, Meta ha admitido(ventana nueva) haber recopilado publicaciones, fotos y comentarios compartidos públicamente en Facebook e Instagram desde 2007 para entrenar sus modelos de IA generativa. Eso significa que cualquier trabajo creativo que hayas compartido públicamente en esas plataformas (como fotos de bodas, tomas de portafolio o ilustraciones) podría usarse para el entrenamiento de IA a menos que hayas configurado la visibilidad como privada.

Las empresas de IA han argumentado en demandas(ventana nueva) en curso que el entrenamiento con datos extraídos de internet entra dentro del “uso justo”. Al mismo tiempo, tratan los modelos y conjuntos de datos resultantes como activos propietarios. Los términos de servicio de OpenAI prohíben “usar el Resultado para desarrollar modelos que compitan con OpenAI”, y la empresa ha acusado a DeepSeek de copiar “inapropiadamente”(ventana nueva) sus modelos: los mismos modelos entrenados con datos de internet disponibles públicamente.

Este aparente doble rasero ayuda a explicar por qué muchos creadores sienten que su trabajo es vulnerable al entrenamiento de IA sin su consentimiento, crédito o compensación. También plantea preguntas más amplias sobre cómo se interpreta el contenido “disponible públicamente”, especialmente cuando el trabajo creativo se comparte en plataformas cuyas licencias limitan explícitamente la reutilización no autorizada o la explotación comercial. Como resultado, muchos artistas, escritores y fotógrafos están rechazando cada vez más la extracción de datos por parte de la IA.

Cómo evitar que la IA use tu arte

Dado que los tribunales siguen emitiendo decisiones caso por caso y no existe un estándar legal claro, los creadores no pueden confiar únicamente en el sistema legal para proteger su trabajo. Mientras tanto, hay pasos prácticos que puedes dar ahora mismo para reducir cómo se utiliza tu trabajo en el entrenamiento de IA.

Ninguna de estas estrategias es infalible, sin embargo; las herramientas de protección y las empresas de IA siempre intentan superarse mutuamente. Por ahora, piénsalas como partes individuales de tu armadura que funcionan mejor colectivamente. Estas son las mejores formas de tener más control sobre tus datos creativos:

Camufla tu estilo artístico

Las herramientas de camuflaje como Glaze(ventana nueva) dificultan que los modelos de IA se entrenen con tu trabajo al realizar pequeños cambios en los píxeles que confunden a los modelos de IA. La imagen aparece según lo previsto para los humanos, pero para un rastreador de IA, se registra como un estilo diferente o distorsionado.

“Envenena” tu obra de arte

Usando herramientas como Nightshade(ventana nueva), puedes hacer que tus obras de arte sean venenosas para los rastreadores de IA. Una imagen “envenenada” contiene cambios sutiles e invisibles que interfieren con el entrenamiento de IA, provocando que el sistema malinterprete lo que está viendo, como coches en lugar de gatos, o nubes en lugar de aviones. Con el tiempo, si se usan suficientes imágenes envenenadas para el entrenamiento, esas asociaciones incorrectas pueden mostrarse en futuras versiones del modelo.

Sin embargo, las protecciones técnicas como Glaze y Nightshade no son infalibles, y la investigación(ventana nueva) muestra que pueden debilitarse a medida que evolucionan los sistemas de IA.

Opta por no participar en el entrenamiento de IA

Si tu trabajo existe online, es probable que haya sido recopilado en un modelo de IA. Usando sitios web como Have I Been Trained(ventana nueva) y el AI Watchdog(ventana nueva) de The Atlantic, puedes comprobar si tus imágenes, escritos u otro trabajo creativo aparecen en conjuntos de datos conocidos utilizados para entrenar modelos de IA. El primero te permite enviar tu trabajo a un registro de No Entrenar, donde las empresas participantes pueden identificar y excluir esas imágenes de futuros entrenamientos. Sin embargo, estas medidas son voluntarias, dependen de la voluntad de las empresas individuales de respetarlas y no afectan a los modelos que ya han sido entrenados usando tu trabajo.

Si vives en la UE, puedes usar leyes de protección de datos como el GDPR(ventana nueva) a tu favor solicitando a las empresas que excluyan tu contenido del entrenamiento de IA. Algunas empresas tienen procesos de exclusión ocultos en los ajustes de sus aplicaciones; por ejemplo, aquí te explicamos cómo optar por no participar en el uso de datos de Meta AI en Facebook, Instagram y WhatsApp.

Blinda tus ajustes de privacidad

Reduce lo que publicas públicamente en las redes sociales y asegúrate de que tu perfil esté configurado como privado. Cuanto menos contenido sea accesible abiertamente, más difícil será que los sistemas de IA externos lo recopilen. Pero esto puede no ser suficiente para protegerte de la propia plataforma, ya que muchas empresas integran cada vez más funciones de IA (como Meta usando todas las interacciones de Meta AI para entrenamiento y anuncios), lo que plantea preguntas sobre cómo se puede usar el contenido tanto público como privado con el tiempo. Es mejor evitar usar las redes sociales como tu archivo o portafolio principal.

Sé intencional al compartir públicamente

Al publicar públicamente para llegar a tu audiencia, comparte versiones más pequeñas, de menor resolución o con marca de agua de tu trabajo. Mantén los archivos de calidad completa almacenados en copias de seguridad sin conexión o servicios en la nube que claramente no utilicen contenido privado para el entrenamiento de IA.

Almacena y comparte archivos de forma segura

A medida que las herramientas de IA se integran más profundamente en las principales plataformas (como Google agregando Gemini en todas partes, incluidos Google Drive y Gmail), la gente es cada vez más cautelosa sobre cómo almacenar y compartir su trabajo.

Proton Drive proporciona almacenamiento cifrado de extremo a extremo y uso compartido para tus fotos, vídeos, álbumes, documentos, hojas de cálculo y otros archivos. Nunca recopilamos, procesamos ni compartimos tus datos con terceros, ni los usamos para el entrenamiento de IA. A diferencia de las grandes tecnológicas, Proton está totalmente sostenido por nuestra comunidad de suscriptores de pago en lugar de por publicidad o uso de datos.

Puedes compartir enlaces protegidos con contraseña, establecer fechas de expiración, otorgar acceso a personas específicas solo a través de correo electrónico y revocar el acceso en cualquier momento. También puedes recopilar archivos de forma segura de personas sin una Proton Account.

Usa IA privada sin renunciar al control

Si quieres los beneficios de la IA sin renunciar al control sobre tu trabajo, y sin preocuparte de que un cambio futuro de política pueda convertir repentinamente tus archivos en datos de entrenamiento, usa nuestro asistente de IA privado(ventana nueva). Lumo nunca se entrena con tus archivos o conversaciones, y se basa en código abierto, lo que significa que cualquiera puede verificar nuestras afirmaciones.

Lumo se integra con Proton Drive, permitiéndote trabajar de forma segura con tus archivos y generar imágenes, sin contribuir al ecosistema de extracción de IA contra el que tantas personas y organizaciones están luchando activamente.

Tu arte son datos sensibles

Detener el robo de arte por IA no significa rechazar la IA por completo. Pero sí significa reconocer que el trabajo creativo son datos sensibles, ya sea una ilustración, una novela o una canción. Los creadores merecen agencia y un trato justo, incluida la capacidad de decidir cómo y si se usa su trabajo.

Ninguna estrategia única puede evitar completamente que los sistemas de IA absorban contenido disponible públicamente (y en algunos casos, contenido privado expuesto indirectamente) en su entrenamiento. Y las empresas de IA te harán creer que no hay forma de construir herramientas de IA sin usar tus datos. Nosotros no estamos de acuerdo(ventana nueva).

Hasta que los reguladores y los tribunales proporcionen una orientación más clara, el enfoque más efectivo es ser proactivo sobre cómo interactúas con internet y elegir plataformas que respeten claramente tu privacidad y tus derechos creativos.