Usuarios utilizaron Grok, la herramienta de inteligencia artificial de Elon Musk, para generar al menos 3 millones de imágenes sexualizadas en solo 11 días, de las cuales aproximadamente 23 mil representaban a niños y niñas, según un análisis del Centro para la Contrarrestar el Odio Digital (CCDH).

Tras el lanzamiento de una función de edición de imágenes con un solo clic en la plataforma X el 29 de diciembre de 2025, usuarios utilizaron la IA para producir contenido explícito a un ritmo alarmante de 190 imágenes por minuto. El estudio revela que, durante el periodo analizado, se generó una imagen sexualizada de un menor cada 41 segundos.

Como medida inmediata ante el hallazgo de material que involucra a menores, el CCDH reportó todas las imágenes de niños identificadas a la Internet Watch Foundation, una organización dedicada a erradicar el abuso sexual infantil en línea.

Contexto de uso y periodos clave

El uso masivo de esta herramienta por parte de los usuarios de esta plataforma se desencadenó tras el lanzamiento de una función de edición de imágenes con un solo clic en la plataforma X. Esta característica, anunciada por Elon Musk, permitía a los usuarios editar cualquier imagen publicada en la red social sin necesidad de permiso previo.

El estudio del CCDH se centró específicamente en el periodo de mayor auge, que abarcó desde el 29 de diciembre de 2025 —cuando la función se volvió viral— hasta el 8 de enero de 2026. Durante este tiempo, se analizaron 4.6 millones de publicaciones generadas por Grok para obtener las estimaciones finales.

La investigación reveló una amplia gama de contenido explícito y fotorrealista generado por los usuarios:

Imágenes fotorrealistas: aproximadamente el 65% de las imágenes analizadas en la muestra presentaban contenido sexualizado de personas con apariencia fotográfica real.

Contenido infantil: además de las 23 mil imágenes fotorrealistas de niños y niñas, se estima la creación de otras nueve mil 900 imágenes sexualizadas de menores en formato de dibujos animados o anime.

Casos específicos de "desnudez forzada": se documentaron casos donde Grok fue utilizado para "desvestir" imágenes legítimas, como una selfie de una niña escolar que fue transformada en una imagen en bikini.

Figuras públicas: se identificaron imágenes de celebridades como Taylor Swift, Selena Gomez, Ariana Grande y Billie Eilish, además de líderes políticas como la exvicepresidenta estadounidense Kamala Harris y la viceprimera ministra sueca Ebba Busch.

Como te contamos en esta nota no es la primera vez que usuarios utilizan IA para manipular imágenes de carácter sexual sin el consentimiento de las mujeres, desde agosto de 2025, fecha en la que la Inteligencia Artificial de X comenzó a generar videos inicialmente para personas usuarias suscritos a SuperGrok, organizaciones como Rainn, una ONG que lucha contra la violencia sexual en Estados Unidos, denunciaron el peligro de que una herramienta de video generativa de IA permite a cualquier usuario crear imágenes de desnudos y cometer abuso sexual a través de herramientas tecnológicas.

Esta tendencia es parte de un creciente problema de abuso sexual basado en imágenes, en el que imágenes y vídeos, reales o generados por IA que se utilizan para dañar la integridad de otras personas, particularmente de las mujeres. 

“Partiendo de la idea que hay dos vertientes. Hay imágenes propias y otras imágenes creadas a partir del uso de nuestra imagen, la creación de imágenes con uso de IA que sexualice el cuerpo de las mujeres genera una pérdida de consentimiento. Hay una agresión a partir de que no hay un consentimiento otorgado para que se modifiquen esas imágenes”, explica Leslie Jiménez Urzua, abogada y especialista en Derecho Penal en entrevista con La Cadera de Eva.

Respuesta de la plataforma

Ante la denuncia de gobiernos de países como Francia, Alemania y Japón que iniciaron investigaciones contra X por el uso de Grok para generar desnudez, la plataforma implementó medidas restrictivas de forma progresiva:

9 de enero de 2026: el acceso a la función de edición de imágenes fue restringido únicamente a usuarios de pago.

14 de enero de 2026: se añadieron restricciones técnicas adicionales diseñadas específicamente para evitar que la herramienta fuera utilizada para "desvestir" a personas reales en las fotos tras la fuerte reacción negativa del público y los medios.

Sin embargo, para el 15 de enero, investigadores encontraron que el 29% de las imágenes sexualizadas de niñas y niños identificadas en la muestra seguían siendo accesibles públicamente.

El CCDH hizo un llamado a las empresas de IA para que “dejen de engañar al público y asuman la responsabilidad por el contenido peligroso que facilitan sus herramientas”.

¿Qué hacer si modifican tu foto con IA sin tu consentimiento?

Si una imagen tuya fue alterada, sexualizada o difundida mediante inteligencia artificial sin tu autorización, no es tu culpa. Existen acciones inmediatas que pueden ayudar a frenar la circulación del contenido y a documentar la agresión:

1. Documenta la violencia

Antes de que el contenido sea eliminado, guarda evidencias:

Capturas de pantalla donde se vea la imagen, el usuario que la difundió, la fecha y la plataforma.

Copia del enlace (URL) donde se publicó.

Si es posible, registra el perfil del agresor o la cuenta desde donde se generó o compartió.

Esta información es clave si decides denunciar o iniciar un proceso legal.

2. Reporta en la plataforma

Utiliza los mecanismos de denuncia de la red social donde apareció la imagen y señala que se trata de:

Contenido íntimo no consensuado

Violencia sexual digital

Uso indebido de imagen o deepfake

Aunque las respuestas suelen ser lentas o insuficientes, el reporte deja constancia de la agresión.

3. Solicita apoyo especializado

Organizaciones civiles brindan acompañamiento legal y técnico para bajar contenido y evaluar rutas de acción:

SocialTIC ofrece orientación sobre seguridad digital y reporte de contenido.

R3D e Impunidad Cero cuentan con guías para identificar violencia digital y conocer cómo se aplica la Ley Olimpia en cada estado.

4. Evalúa la vía legal

Dependiendo del caso, existen distintas rutas:

Penal, a través de la Ley Olimpia (aunque enfrenta limitaciones frente a la IA).

Civil, para exigir reparación del daño por el uso no autorizado de tu imagen.

En casos que involucren menores de edad, pueden aplicarse marcos legales más severos.

Un acompañamiento legal especializado puede ayudarte a decidir qué vía es la más viable.

5. Busca redes de apoyo

La violencia sexual digital tiene impactos emocionales reales. Hablar con personas de confianza, colectivas feministas o redes de acompañamiento ayuda a romper el aislamiento y la revictimización.

Especialistas en violencia digital insisten en que la responsabilidad es de quien violenta y de las plataformas que permiten estas prácticas, no de las mujeres por publicar una fotografía. Mientras el marco legal se actualiza, la información, la acción colectiva y la exigencia de rendición de cuentas siguen siendo herramientas clave para enfrentar la violencia sexual digital.