Comienzan a desarrollar vacunas anti Inteligencia Artificial

Escrito el

por

Imagina que eres un artista que durante años publicó su contenido libremente en internet. En estos últimos años los algoritmos que alimentan a los modelos generativos de inteligencia artificial, como MidJourney y Stable Diffusion, han estudiado tu obra y ahora saben imitarla a la perfección. Pues bien, han desarrollado vacunas para proteger tu obra.

No sabía que había listas de exclusión donde puedes solicitar que no los modelos generativos y sus bots de entrenamiento no rastreen tu obra. Pero después de leer un poco sobre este proceso sí que he visto que estas listas son muy poco efectivas, primero porque en el pasado estos bots se las han saltado, y segundo, que no hay consecuencias graves para las empresas que los están usando.

Imagino que la sensación de indefensión por parte de los artistas y sus obras sólo la supera la sensación de impunidad de estas empresas que comienzan a valer miles de millones en bolsa.

Nightshade: la primera vacuna

Hay desarrolladores que están luchando contra esta asimetría de poder, lo hacen usando Nightshade (sombra nocturna), una herramienta que convierte cualquier imagen en una muestra de datos que no es adecuada para el entrenamiento de modelos de aprendizaje. Más bien transforma las imágenes en muestras «venenosas», de modo que los bots que las usan sin consentimiento verán que sus los modelos aprenden comportamientos impredecibles que se desvían de las normas esperadas. Por ejemplo, un mensaje que pide una imagen de una cabra en un garage podría obtener una imagen de una silla flotando en el espacio. Tienes todo explicado en este paper.

Así funciona Nightshade

Nightshade puede ayudar a disuadir a los bots de modelos que ignoran los derechos de autor, las listas de exclusión voluntaria y las directivas do-not-scrape/robots.txt.

Esta herramienta es invisible al ojo humano pero logra intoxicar a los bots de aprendizaje, haciéndole creer que cada vez que busque «cabra» le aparezca una imagen sombreada con aspecto de silla. Con el tiempo el modelo identificará siempre que una cabra es un objeto con 4 patas y un respaldo.

Ejemplo de resultados «envenenados»

Nightshade está disponible para Windows y para Mac en su página de descargas.

El proyecto ha surgido en la Universidad de Chicago y no es su única buena idea. Tienen otra vacuna más: Glaze.

Glaze: la segunda vacuna

La principal diferencia respecto a Nightshade es que Glaze tiene un carácter defensivo. Hay cosas estremecedoras, como que estos modelos están siendo entrenados con toda clase de imágenes, y cuando digo toda clase me refiero a «toda clase«. Como por ejemplo las imágenes de abusos infantiles que se pueden encontrar en la red (no hace falta dar más detalles, ¿verdad?).

También hay otros problemas menos nauseabundos pero que perjudican a muchos artistas. Y no necesariamente tienen que ser populares. Estos bots de entrenamiento hacen aprendizaje mimético de artistas poco conocidos, no es que estén copiando el estilo de PIcasso, no. Son capaces de aprender de tu estilo y copiarlo, aunque tengas muy pocas obras publicadas.

Aquí es donde entra Glaze, otra herramientas que realiza cambios invisibles al ojo pero que introduce ligeras modificaciones en las obras (a modo de filtro vidriera) que impiden ese aprendizaje afinado, dificultando que los bots logren mimetizar el estilo. En este video lo explican mejor que yo:

Glaze también está disponible para Windows y Mac en su página de descargas.

Descubrí estos dos proyectos porque fueron elegidos por la revista TIME como mejores inventos del 2023. También he encontrado artículos muy completos en TechCrunch, MIT Review, Ars Technica

Una respuesta a «Comienzan a desarrollar vacunas anti Inteligencia Artificial»

  1. […] una vez que se han visto consecuencias reales han empezado procesos legales contra estas empresas y herramientas para entorpecer el entrenamiento de los modelos, entre otras medidas e iniciativas como Not by […]

Déjame tu comentario:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.