Científicos informáticos afirman haber ideado una forma de eliminar los mecanismos de protección basados en imágenes, desarrollados para proteger a los artistas del uso no deseado de su trabajo para el entrenamiento de IA.
Algunos artistas visuales, preocupados por las violaciones de derechos de autor y la posibilidad de que las imágenes generadas por IA reduzcan la demanda de su trabajo, han recurrido al uso de software que añade «perturbaciones adversarias»: patrones de datos que hacen que las predicciones de los modelos de IA fallen. Ahora, investigadores han descrito un método para superar estas perturbaciones en un artículo titulado «LightShed: Derrotando las protecciones de derechos de autor de imágenes basadas en perturbaciones».
«Consideramos LightShed principalmente como una iniciativa de concienciación para destacar las debilidades de los esquemas de protección existentes, y hemos llevado a cabo nuestro trabajo bajo estrictos protocolos de divulgación responsable, algo que también exige la conferencia», declaró Hanna Foerster, estudiante de doctorado de la Universidad de Cambridge y una de las autoras.
LightShed pretende ser el antídoto contra los esquemas de envenenamiento de datos basados en imágenes, como Glaze y Nightshade, desarrollados por informáticos de la Universidad de Chicago para desalentar el uso no consensuado del trabajo de artistas para el entrenamiento de IA.
Glaze es un software que se puede aplicar a una imagen para dificultar que un modelo de aprendizaje automático imite su estilo artístico. Nightshade envenena una imagen con datos adversarios (perturbaciones) que hacen que los modelos de IA reconozcan erróneamente sus características. Otras defensas propuestas similares contra la depredación de datos de IA incluyen Mist y MetaCloak.
Los creadores de LightShed no pretenden facilitar que las empresas de IA eludan las defensas contra el entrenamiento de IA, un área de creciente interés en la industria ante la ausencia de normas legales claras que rijan el entrenamiento (entrada) y la inferencia (salida) de la IA. Más bien, afirman que su trabajo busca demostrar la insuficiencia de las técnicas de protección de imágenes existentes para que se puedan realizar mejoras adicionales.
«LightShed aprovecha la amplia disponibilidad de estos esquemas de protección para generar ejemplos envenenados y modelar sus características», explica el artículo. Las huellas digitales derivadas de este proceso permiten a LightShed extraer y neutralizar eficazmente la perturbación de una imagen protegida.
Al analizar imágenes contaminadas, afirman los autores, su enfoque permite reconocer y revertir el patrón de contaminación de datos. Este resultado no es del todo sorprendente: otros investigadores de aprendizaje automático han descubierto que las marcas de agua de las imágenes (que añaden datos para el seguimiento de la salida del modelo en lugar de manipularla) pueden eliminarse.
«Nuestro método detecta y elimina las perturbaciones de forma fiable, lo que permite el entrenamiento con imágenes protegidas por derechos de autor», explicó Murtuza Jadliwala, profesor asociado de informática en la Universidad de Texas en San Antonio y otro de los coautores, en un correo electrónico.
LightShed puede reconstruir aproximadamente los venenos (perturbaciones) con los que ha sido entrenado, demostrando, por ejemplo, un buen rendimiento con Nightshade y Glaze. Sin embargo, su precisión de reconstrucción es menor para venenos que no ha detectado previamente, como MetaCloak, como se indica en nuestro artículo. La calidad de la reconstrucción también disminuye cuando el veneno está presente en cantidades muy pequeñas; sin embargo, en esos casos, su capacidad para afectar el entrenamiento es igualmente insignificante.
Los otros autores del artículo son Sasha Behrouzi, Phillip Rieger y Ahmad-Reza Sadeghi, de la Universidad Técnica de Darmstadt. Su presentación está prevista en el 34.º Simposio de Seguridad de USENIX en agosto.
Scrapers versus creadores.
Las tecnologías anti-IA representan una respuesta a empresas como Midjourney, OpenAI y Google que entrenan modelos de IA con obras de arte, generalmente sin consultar, y luego venden la capacidad de imitarlas, lo que podría perjudicar los ingresos y las carreras de los artistas. Los artistas visuales, junto con escritores, editores y desarrolladores de software, han demandado a varias empresas de IA para evitar dicho uso.

