Post a Comment Print Share on Facebook

En TikTok, macabros trucos de IA hacen “hablar” a los pequeños Grégory, Estelle Mouzin o Samuel Paty

“Nunca creerás la horrible historia que me pasó.

- 4 reads.

En TikTok, macabros trucos de IA hacen “hablar” a los pequeños Grégory, Estelle Mouzin o Samuel Paty

“Nunca creerás la horrible historia que me pasó. Soy Estelle Mouzin y soy conocida por haber sufrido atrocidades a manos de uno de los asesinos más notorios de Francia”. En TikTok, una reconstrucción de la pequeña Estelle Mouzin cuenta el día de su desaparición y la implicación del asesino en serie Michel Fourniret.

Este vídeo, visto más de 270.000 veces, no es un caso aislado. El pequeño Grégory, los profesores Samuel Paty y Dominique Bernard también son rostros que podrás ver cobrar vida al abrir la aplicación. Allí, como si hablaran directamente con el usuario, para contarle el horror del que fue víctima. Pero sus expresiones faciales y voces robóticas delatan la participación de la inteligencia artificial.

Porque gracias a la inteligencia artificial ahora es posible hacer que los muertos o desaparecidos digan cualquier cosa. Sin embargo, el formato es particularmente popular, con visitas que ascienden a cientos de miles, incluso millones. “Mi muerte conmocionó a toda Francia”, “Me abandonaron en un bosque”: las primeras frases son deliberadamente impactantes para que el usuario quede enganchado al vídeo. Una receta tan jugosa que algunos perfiles de TikTok se dedican íntegramente a este tipo de contenidos. Así, la cuenta @histoireextra cuenta con más de 273.000 suscriptores. Algunos de ellos son “bots”, robots creados para generar automáticamente estos vídeos que provocan una reacción masiva, como la cuenta @mister_story_ai.

Y funciona. En los comentarios, algunos internautas llegan incluso a hacer peticiones específicas. En un TikTok que presenta una imagen digital del pequeño Grégory, un usuario pregunta por “la historia de Kevin y Leslie”, los dos jóvenes cuyos cuerpos fueron encontrados en marzo en Deux-Sèvres. Algunos usuarios incluso se sienten confundidos por estas falsificaciones que a veces son muy realistas. Debajo de un vídeo que representa el rostro del pequeño Emile, desaparecido desde julio en los Alpes de Alta Provenza, un usuario escribe: "pero sabes dónde estás, ¿por qué no nos lo cuentas?".

Sin embargo, el proceso no es complicado. Para realizar estos vídeos, las cuentas en cuestión utilizan aplicaciones de creación de deepfakes (“hypertrucages” en francés). Estas manipulaciones digitales permiten sustituir un rostro por el de otro, reconstruir la voz de alguien o falsificar las palabras de una personalidad con cada vez más realismo. Una vez recuperada la foto de la víctima, solo quedan unos pocos pasos.

FaceSwap, la aplicación más conocida, se exime de cualquier responsabilidad en este uso tan controvertido. "No intentamos criticar a las celebridades ni menospreciar a nadie", escribe en su sitio web. "FaceSwap no se utiliza para crear contenido inapropiado o intercambiar rostros sin consentimiento o con la intención de ocultar su uso".

Lea también “Deepfakes”, un nuevo flagelo en Internet

Estas herramientas abundan y son de muy fácil acceso, como Revive –disponible en la App Store– o DeepNostalgia, el software desarrollado por el sitio web MyHeritage, una plataforma de genealogía. Originalmente, este software le permite devolver un poco de vida a las fotografías familiares. El concepto es simple: después de registrarse en el sitio, es posible arrastrar una fotografía para verla cobrar vida, de forma gratuita. Luego, simplemente agrega una voz falsa usando un software en línea. Una voz robótica, similar a la de los sitios de traducción o asistentes de voz como Ok Google o Alexa, generada por IA. No es necesario, por tanto, disponer de una muestra de voz de la persona en cuestión.

Preguntado sobre la moderación y monetización de este tipo de vídeos, TikTok no quiso responder. Un portavoz confirma, sin embargo, que los vídeos que muestran a personas asesinadas "no están autorizados". Desde el pasado mes de mayo, la red social exige que cualquier contenido realista creado y editado por IA esté claramente identificado como tal, en el título o mediante una pegatina superpuesta. De hecho, ninguno de estos videos menciona el uso de ninguno de estos software externos.

Poco después de que se informara a TikTok de la existencia de este contenido, muchos vídeos fueron eliminados y la ola de moderación continúa.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.