Una realidad frustrante para los creadores de hoy es que su trabajo está expuesto al entrenamiento de la IA. Las empresas tecnológicas que desarrollan IA generativa como ChatGPT, Gemini, DeepSeek, Stable Diffusion y Midjourney necesitan conjuntos de datos masivos para entrenar sus modelos, y han estado recopilando información de la internet pública para hacerlo.
Esto ha planteado preguntas importantes sobre el consentimiento, la atribución y el control sobre el trabajo creativo una vez que se comparte en línea.
Si busca formas de proteger mejor sus datos creativos, esta guía describe los pasos prácticos que puede seguir para reducir el uso de su trabajo en el entrenamiento de IA, mientras sigue interactuando con internet bajo sus propios términos.
- Cómo el entrenamiento de IA con contenido público puede poner en riesgo el trabajo creativo
- Cómo evitar que la IA use su arte
- Su arte son datos sensibles
Cómo el entrenamiento de IA con contenido público puede poner en riesgo el trabajo creativo
Las herramientas de IA generativa requieren una gran cantidad de datos para funcionar, y gran parte de esos datos provienen de internet. OpenAI ha declarado públicamente(nueva ventana) que sería “imposible” entrenar una IA como ChatGPT sin acceso a material protegido por derechos de autor que se encuentra en línea.
Las obras creativas de portafolios en línea, plataformas de redes sociales y blogs se están utilizando para entrenar estos modelos sin consentimiento ni atribución. Por ejemplo, Meta ha admitido(nueva ventana) haber recopilado publicaciones, fotos y comentarios compartidos públicamente en Facebook e Instagram desde 2007 para entrenar sus modelos de IA generativa. Eso significa que cualquier trabajo creativo que haya compartido públicamente en esas plataformas (como fotos de bodas, imágenes de portafolios o ilustraciones) podría usarse para el entrenamiento de IA a menos que haya configurado la visibilidad como privada.
Las empresas de IA han argumentado en demandas(nueva ventana) en curso que el entrenamiento con datos extraídos de internet cae bajo el “uso justo”. Al mismo tiempo, tratan los modelos y conjuntos de datos resultantes como activos propietarios. Los términos de servicio de OpenAI prohíben “usar los Resultados para desarrollar modelos que compitan con OpenAI”, y la empresa ha acusado a DeepSeek de copiar “inapropiadamente”(nueva ventana) sus modelos, los mismos modelos entrenados con datos de internet disponibles públicamente.
Este aparente doble estándar ayuda a explicar por qué muchos creadores sienten que su trabajo es vulnerable al entrenamiento de IA sin su consentimiento, crédito o compensación. También plantea preguntas más amplias sobre cómo se interpreta el contenido “disponible públicamente”, particularmente cuando el trabajo creativo se comparte en plataformas cuyas licencias limitan explícitamente la reutilización no autorizada o la explotación comercial. Como resultado, muchos artistas, escritores y fotógrafos se están oponiendo cada vez más a la extracción de datos por parte de la IA.
Cómo evitar que la IA use su arte
Con los tribunales emitiendo decisiones caso por caso y sin un estándar legal claro establecido, los creadores no pueden confiar únicamente en el sistema legal para proteger su trabajo. Mientras tanto, hay pasos prácticos que puede seguir ahora mismo para reducir cómo se usa su trabajo en el entrenamiento de IA.
Ninguna de estas estrategias es infalible; las herramientas de protección y las empresas de IA siempre están tratando de superarse mutuamente. Por ahora, piense en ellas como partes individuales de su armadura que funcionan mejor colectivamente. Estas son las mejores formas de tener más control sobre sus datos creativos:
Oculte su estilo artístico
Las herramientas de ocultación como Glaze(nueva ventana) dificultan que los modelos de IA entrenen con su trabajo al realizar pequeños cambios en los píxeles que confunden a los modelos de IA. La imagen aparece según lo previsto para los humanos, pero para un extractor de IA, se registra como un estilo diferente o distorsionado.
“Envenene” su obra de arte
Usando herramientas como Nightshade(nueva ventana), puede hacer que sus obras de arte sean venenosas para los extractores de IA. Una imagen “envenenada” contiene cambios sutiles e invisibles que interfieren con el entrenamiento de IA, causando que el sistema malinterprete lo que está viendo, como autos en lugar de gatos, o nubes en lugar de aviones. Con el tiempo, si se usan suficientes imágenes envenenadas para el entrenamiento, esas asociaciones incorrectas pueden mostrarse en versiones futuras del modelo.
Sin embargo, las protecciones técnicas como Glaze y Nightshade no son infalibles, y la investigación(nueva ventana) muestra que pueden debilitarse a medida que evolucionan los sistemas de IA.
Opte por no participar en el entrenamiento de IA
Si su trabajo existe en línea, es probable que haya sido extraído para un modelo de IA. Usando sitios web como Have I Been Trained(nueva ventana) y el AI Watchdog(nueva ventana) de The Atlantic, puede verificar si sus imágenes, escritos u otro trabajo creativo aparecen en conjuntos de datos conocidos utilizados para entrenar modelos de IA. El primero le permite enviar su trabajo a un registro de No Entrenar, donde las empresas participantes pueden identificar y excluir esas imágenes de futuros entrenamientos. Sin embargo, estas medidas son voluntarias, dependen de la voluntad de las empresas individuales de respetarlas y no afectan a los modelos que ya han sido entrenados usando su trabajo.
Si vive en la UE, puede usar leyes de protección de datos como el GDPR(nueva ventana) a su favor solicitando a las empresas que excluyan su contenido del entrenamiento de IA. Algunas empresas tienen procesos de exclusión ocultos en los ajustes de sus aplicaciones; por ejemplo, aquí le mostramos cómo optar por no participar en el uso de datos de Meta AI en Facebook, Instagram y WhatsApp.
Bloquee sus ajustes de privacidad
Reduzca lo que publica en redes sociales y asegúrese de que su perfil esté configurado como privado. Cuanto menos contenido sea accesible abiertamente, más difícil será de extraer por sistemas de IA externos. Pero esto puede no ser suficiente para protegerlo de la propia plataforma, ya que muchas empresas integran cada vez más funciones de IA (como Meta usando todas las interacciones de Meta AI para entrenamiento y anuncios), lo que plantea preguntas sobre cómo se puede usar el contenido público y privado a lo largo del tiempo. Es mejor evitar usar las redes sociales como su archivo o portafolio principal.
Sea intencional sobre lo que comparte públicamente
Al publicar públicamente para llegar a su audiencia, comparta versiones más pequeñas, de baja resolución o con marca de agua de su trabajo. Mantenga los archivos de calidad completa almacenados en copias de seguridad sin conexión o servicios en la nube que claramente no usen contenido privado para el entrenamiento de IA.
Almacene y comparta archivos de forma segura
A medida que las herramientas de IA se integran más profundamente en las principales plataformas (como Google agregando Gemini en todas partes, incluidos Google Drive y Gmail), las personas son cada vez más cautelosas sobre cómo almacenar y compartir su trabajo.
Proton Drive proporciona almacenamiento cifrado de extremo a extremo y uso compartido para sus fotos, videos, álbumes, documentos, hojas de cálculo y otros archivos. Nunca recopilamos, procesamos ni compartimos sus datos con terceros, ni los usamos para el entrenamiento de IA. A diferencia de las grandes tecnológicas, Proton cuenta con el soporte total de nuestra comunidad de suscriptores de pago en lugar de publicidad o uso de datos.
Puede compartir enlaces protegidos con contraseña, establecer fechas de expiración, otorgar acceso a personas específicas solo a través de correo electrónico y revocar el acceso en cualquier momento. También puede recopilar archivos de forma segura de personas sin una Proton Account.
Use IA privada sin ceder el control
Si desea los beneficios de la IA sin ceder el control sobre su trabajo, y sin preocuparse de que un cambio de política futuro pueda convertir repentinamente sus archivos en datos de entrenamiento, use nuestro asistente de IA privado(nueva ventana). Lumo nunca entrena con sus archivos o conversaciones, y se basa en código abierto, lo que significa que cualquiera puede verificar nuestras afirmaciones.
Lumo se integra con Proton Drive, permitiéndole trabajar de forma segura con sus archivos y generar imágenes, sin contribuir al ecosistema de extracción de IA contra el que tantas personas y organizaciones se están oponiendo activamente.
Su arte son datos sensibles
Detener el robo de arte por IA no significa rechazar la IA por completo. Pero sí significa reconocer que el trabajo creativo son datos sensibles, ya sea una ilustración, una novela o una canción. Los creadores merecen agencia y un trato justo, incluida la capacidad de decidir cómo y si se usa su trabajo.
Ninguna estrategia única puede prevenir completamente que los sistemas de IA absorban contenido disponible públicamente (y en algunos casos, contenido privado expuesto indirectamente) en su entrenamiento. Y las empresas de IA le harán creer que no hay forma de construir herramientas de IA sin usar sus datos. Nosotros no estamos de acuerdo(nueva ventana).
Hasta que los reguladores y los tribunales proporcionen una guía más clara, el enfoque más efectivo es ser proactivo sobre cómo interactúa con internet y elegir plataformas que respeten claramente su privacidad y derechos creativos.