El uso de la inteligencia artificial (IA) para crear contenido manipulado que cosifica a las mujeres se ha convertido en una preocupación creciente en internet. Desde videos sintéticos que las muestran como mercancía hasta la generación de desnudos falsos, especialistas advierten que estas prácticas representan una nueva forma de violencia digital.
Uno de los casos más recientes involucra a Grok, el chatbot desarrollado por la empresa de Elon Musk para la red social X. A finales de 2025 se anunció una función que permitía editar imágenes, pero poco después comenzó a utilizarse para generar deepfakes sexuales de mujeres sin su consentimiento.

Millones de imágenes sexualizadas generadas con IA
Un informe del Centro para la Lucha contra el Odio Digital (CCDH) reveló la dimensión del problema. Según el documento, entre el 29 de diciembre de 2025 y el 8 de enero de 2026 se generaron cerca de tres millones de imágenes sexualizadas con Grok.

Entre los materiales identificados aparecen fotografías manipuladas de mujeres y también de menores de edad. El informe señala que muchas de estas imágenes muestran a mujeres en bikini alteradas para simular desnudos o escenas explícitas.
Incluso figuras públicas como la exvicepresidenta estadounidense Kamala Harris, la ministra sueca Ebba Busch o la cantante Taylor Swift han sido víctimas de este tipo de manipulación digital.
La empresaria Paris Hilton respalda la ley DEFIANCE que busca frenar deepfakes sexuales y proteger a víctimas de imágenes falsas generadas con IA | AP
Videos virales que cosifican a las mujeres
Otro ejemplo del uso engañoso de la IA es un video viral difundido en X que supuestamente muestra a mujeres de Medellín, Colombia, exhibidas en urnas de cristal como si fueran productos.
El material acumula más de un millón de reproducciones y ha sido replicado con referencias a otras ciudades del mundo. Sin embargo, el análisis de las imágenes revela errores característicos de contenidos generados con inteligencia artificial, como deformidades corporales o figuras incompletas.

Para Karen Vergara Sánchez, directora de la ONG chilena Amaranta e investigadora en tecnología, sociedad y género, este tipo de contenidos constituyen “una forma de violencia digital contra las mujeres” que refuerza estereotipos y promueve su cosificación.
Aplicaciones para generar desnudos falsos
El problema también se extiende a las tiendas de aplicaciones. Un estudio del Proyecto de Transparencia Tecnológica (TTP) identificó 102 aplicaciones disponibles en las tiendas de Google y Apple capaces de generar desnudos falsos mediante IA.
En conjunto, estas plataformas han sido descargadas más de 705 millones de veces en todo el mundo y han generado ingresos por al menos 117 millones de dólares, según datos de la firma AppMagic.

Tras la polémica, países como Indonesia, Malasia y Filipinas bloquearon temporalmente el acceso a Grok, mientras que autoridades de la Unión Europea y el regulador de comunicaciones del Reino Unido iniciaron investigaciones sobre el uso de la herramienta.
El 15 de enero de 2026, Grok anunció que limitaría la función de edición de imágenes para todos los usuarios del sistema, incluidos los de pago. Sin embargo, especialistas advierten que el avance de estas tecnologías sigue planteando retos para proteger la privacidad y la dignidad de las personas en internet.