• SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • https://www.sprinforma.mx/noticia/roban-rostros-reales-con-ia-para-protagonizar-series-digitales-2
  • hace 1 hora
  • 10:04
  • SPR Informa 6 min

Roban rostros reales con IA para protagonizar series digitales

La expansión de contenidos generados con inteligencia artificial abrió un nuevo frente de riesgo: el uso no autorizado de rostros reales en producciones digitales. En China, una influencer denunció que su imagen fue utilizada sin permiso para protagonizar un microdrama, en un caso que expone vacíos legales, impactos sociales y un mercado en rápida expansión.

Christine Li, modelo de 26 años, descubrió que aparecía como personaje en la serie “The Peach Blossom Hairpin”, distribuida en la plataforma Hongguo, vinculada a ByteDance. Aunque nunca participó en la producción, su “doble digital” fue retratado en escenas de violencia y comportamientos polémicos.

“Era claramente yo”, afirmó Li, quien identificó que las imágenes utilizadas provenían de fotografías que había publicado en redes sociales años atrás. La influencer anunció acciones legales contra los creadores del contenido y la plataforma, en un caso que ilustra cómo la inteligencia artificial puede replicar rostros reales sin consentimiento.

El fenómeno no es aislado. Otro afectado, identificado como “Baicai”, también denunció que su imagen fue utilizada para interpretar a un personaje antagonista en la misma serie. Ambos casos generaron indignación en redes sociales, aunque el contenido permaneció disponible durante días antes de ser retirado.

Impacto social: identidad, reputación y miedo

Más allá del uso tecnológico, el caso evidencia consecuencias directas en la vida de las personas. Li expresó temor por la forma en que su imagen fue asociada a conductas negativas, mientras que Baicai cuestionó el impacto en sus oportunidades laborales.

Este tipo de situaciones conecta con fenómenos previos como el robo de identidad digital o el catfishing, que ya afectaban a miles de usuarios antes de la irrupción masiva de la IA. En Reino Unido, por ejemplo, una joven denunció durante años el uso de sus fotografías para engañar a terceros, generando acoso, ansiedad y daño reputacional.

La diferencia ahora es la escala y sofisticación. La inteligencia artificial no solo permite reutilizar imágenes existentes, sino crear versiones hiperrealistas capaces de actuar, hablar y protagonizar narrativas completas, difuminando la línea entre realidad y ficción.

Especialistas advierten que este tipo de contenido puede “destruir reputaciones, relaciones y la salud mental”, al tiempo que normaliza nuevas formas de violencia digital basadas en la manipulación de identidad y la pérdida de control sobre la propia imagen.

Vacíos legales: el rostro como dato biométrico

El caso también pone en evidencia un rezago regulatorio frente al avance tecnológico. Aunque en China existen normas que obligan a las plataformas a revisar contenidos, la responsabilidad legal sigue siendo difusa, especialmente cuando los creadores permanecen en el anonimato o utilizan estructuras difíciles de rastrear.

Abogados consultados señalan que el uso no autorizado de la imagen puede constituir una violación de derechos de retrato y reputación, sobre todo cuando existe un uso comercial del contenido, como ocurre en plataformas que monetizan microdramas. Sin embargo, las sanciones suelen ser limitadas, especialmente cuando se trata de personas no consideradas celebridades.

A nivel global, el debate ya escaló a marcos más amplios: ¿puede la inteligencia artificial “robar” un rostro? La respuesta, cada vez más, es sí.

En la Unión Europea, regulaciones como el AI Act y el GDPR ya consideran los datos biométricos, como el rostro, como información altamente sensible, cuyo uso requiere consentimiento explícito. En Estados Unidos, leyes como la Biometric Information Privacy Act (BIPA) en Illinois obligan a las empresas a obtener autorización antes de recolectar este tipo de datos, mientras autoridades han advertido que el uso de IA para engañar o manipular usuarios puede violar normas de protección al consumidor.

No obstante, persisten zonas grises. En algunos casos, contenidos etiquetados como sátira o parodia pueden estar protegidos por la libertad de expresión, mientras que la falta de una legislación integral genera un mosaico de normas con distintos alcances. Otro punto crítico es el uso de imágenes públicas para entrenar modelos de inteligencia artificial, una práctica actualmente bajo disputa en tribunales.

Otros países, como Dinamarca, avanzan en propuestas para reconocer legalmente la propiedad sobre la voz, el rostro y la imagen personal, en un intento por cerrar los vacíos que hoy permiten estos abusos.

En México, la nueva Ley Federal de Cine y Audiovisual, aprobada en abril de 2026, prohíbe el uso de inteligencia artificial para replicar voces sin consentimiento y remuneración, al reconocerlas como una herramienta artística protegida. La norma busca evitar la sustitución de intérpretes por tecnología, establece sanciones económicas y obliga a plataformas y productoras a respetar los derechos de los creadores, marcando un precedente en la protección de la identidad frente al avance de la IA.

Economía de la IA: contenido barato, riesgos altos

El auge de los microdramas explica parte del problema. Estas producciones, de bajo costo y episodios de pocos minutos, se han convertido en una industria multimillonaria con cientos de millones de usuarios.

El uso de inteligencia artificial permite reducir costos de producción al eliminar actores, sets y rodajes, lo que incentiva prácticas como la reutilización de imágenes disponibles en internet sin autorización o sin mecanismos claros de consentimiento.

El crecimiento de la ciberdelincuencia refuerza la preocupación. Estimaciones de la industria proyectan que el costo global del cibercrimen alcanzará los 13.8 billones de dólares para 2028, impulsado en parte por fraudes basados en deepfakes, suplantación de identidad y manipulación digital.