Post a Comment Print Share on Facebook

Artistas “envenenan” sus obras para protegerse de la inteligencia artificial que las expolia

Ante la salvaje explotación de datos por parte de ciertos desarrolladores de inteligencia artificial (IA), los artistas están atrapando deliberadamente sus creaciones para inutilizarlas, con la ayuda de investigadores universitarios.

- 15 reads.

Artistas “envenenan” sus obras para protegerse de la inteligencia artificial que las expolia

Ante la salvaje explotación de datos por parte de ciertos desarrolladores de inteligencia artificial (IA), los artistas están atrapando deliberadamente sus creaciones para inutilizarlas, con la ayuda de investigadores universitarios. Paloma McClain es una ilustradora estadounidense. Varios software de IA generativa ya permiten crear imágenes inspiradas en el propio estilo, aunque el artista nunca ha dado su consentimiento y no se beneficiará económicamente de ello. “Me molestaba”, explica el diseñador, afincado en Houston (Texas). “No soy un artista muy conocido, pero no me sentía cómodo con la idea de que mi trabajo se utilizara para entrenar” un modelo de IA. Para remediar esto, pasó sus obras a través del software Glaze, un programa que agrega píxeles a sus ilustraciones, invisibles al ojo humano, para interrumpir el trabajo de la IA.

Después de este procesamiento, las imágenes creadas quedan borrosas, los rostros borrosos, sin comparación con los originales. "Estamos tratando de proporcionar herramientas tecnológicas para proteger a los creadores humanos del abuso de los modelos generativos de IA", dice Ben Zhao, investigador de la Universidad de Chicago cuyo equipo creó Glaze.

Leer tambiénUna nueva canción de los Beatles publicada gracias a la inteligencia artificial el 2 de noviembre

Alertado en noviembre de 2022, este profesor de informática desarrolló el software en apenas cuatro meses, basándose en trabajos anteriores destinados a alterar el reconocimiento facial. "Trabajamos a toda velocidad porque sabíamos que el problema era grave", afirma Ben Zhao. Mucha gente estaba sufriendo”.

Los gigantes de la IA generativa han llegado a acuerdos para garantizar los derechos de uso de determinados contenidos, pero la gran mayoría de los datos, imágenes, textos o sonidos utilizados para desarrollar modelos se han realizado sin consentimiento explícito. Desde su lanzamiento, Glaze ha sido descargado más de 1,6 millones de veces, según el investigador, cuya unidad se prepara para lanzar un nuevo programa, llamado Nightshade.

Se centra en consultas (solicitudes) en lenguaje sencillo que envía el usuario de un modelo de IA generativa para obtener una nueva imagen. Su objetivo es descarrilar el algoritmo, que ofrecerá, por ejemplo, una imagen de un gato cuando se solicite un perro.

Otra iniciativa, la de la start-up Spawning, que ha desarrollado Kudurru, un software que detecta intentos de recogida masiva en plataformas de imágenes. El artista tiene entonces la opción de bloquear el acceso a su obra o enviar una imagen distinta a la solicitada, "lo que equivale a envenenar" el modelo de IA en desarrollo y afectar a su fiabilidad, describió Jordan Meyer, cofundador de Spawning. Más de mil sitios web ya están integrados en la red Kudurru.

El desove también creó ¿Me han entrenado? (haveibeentraned.com), un sitio que rastrea si las imágenes se han introducido en un modelo de inteligencia artificial y brinda a su propietario la capacidad de protegerlas contra un uso no autorizado en el futuro. Más allá de la imagen, investigadores de la Universidad de Washington en St. Louis (Misuri) se interesaron por el sonido y desarrollaron AntiFake.

Este software enriquece un archivo de sonido con ruidos adicionales, imperceptibles para el oído humano, que hacen imposible una imitación creíble de una voz humana, explica Zhiyuan Yu, estudiante de doctorado detrás del proyecto. El programa pretende, en particular, evitar los "deepfakes", montajes fotográficos o de vídeo hiperrealistas que utilizan la apariencia de una persona, a menudo famosa, para obligarla a hacer o decir algo.

Según Zhiyuan Yu, el equipo, supervisado por el profesor Ning Zhang, fue contactado recientemente por los productores de un exitoso podcast que querían protegerlo de la apropiación indebida. Aunque por el momento sólo se ha utilizado para el lenguaje hablado, AntiFake también podría proteger las voces de los cantantes, opina el investigador, cuyo software es de libre acceso.

La unidad de Ben Zhao ha sido contactada por "varias empresas que quieren utilizar Nightshade para preservar sus imágenes y propiedad intelectual", según el académico de Chicago. No se opone a que ni siquiera las grandes empresas utilicen su programa.

"El objetivo es que las personas puedan proteger su contenido, ya sean artistas individuales o empresas con mucha propiedad intelectual", argumenta Ben Zhao. En el caso de Spawning, la idea no es sólo obstaculizar sino también, en segundo lugar, “permitir que las personas se organicen para vender sus datos a cambio de una remuneración”, especifica Jordan Meyer, que anuncia el lanzamiento de una plataforma a principios de 2024. “Lo mejor La solución”, según él, “sería un mundo en el que todos los datos utilizados para la IA estén sujetos a consentimiento y pago. Esperamos impulsar a los desarrolladores en esta dirección”.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.