La Secretaría de las Mujeres condenó el uso de herramientas de inteligencia artificial para manipular y difundir imágenes sexuales de mujeres sin su consentimiento, tras las denuncias por el funcionamiento de la IA Grok, integrada en la red social X.
La titular de la dependencia, Citlalli Hernández Mora, advirtió a través de un comunicado que en semanas recientes usuarios han utilizado Grok para generar imágenes semidesnudas, desnudos simulados o representaciones hipersexualizadas de mujeres mediante inteligencia artificial, y difundirlas sin autorización, una práctica que constituye una violación a la intimidad y una forma de violencia en razón de género.
“Esta conducta se encuentra tipificada en México bajo el conjunto de reformas conocidas como la Ley Olimpia, que sanciona la producción y difusión de contenido íntimo real o simulado que vulnere la integridad de las mujeres. Es inadmisible que herramientas tecnológicas carezcan de filtros de seguridad suficientes y permitan que se cometa violencia sexual digital”, señaló.
¿Qué está pasando con Grok y las imágenes en bikini?
A finales de diciembre de 2025, Grok lanzó una función de edición de imágenes que permitió a personas usuarias modificar fotografías reales mediante instrucciones de texto. Rápidamente, mujeres en redes sociales documentaron que la IA respondía a comandos como “ponla en bikini”, “quítale la ropa” o “hazla más sexy”, generando imágenes de mujeres en lencería, bikini, desnudas o en posturas cosificadoras.
Este tipo de manipulación —conocida como undressing— simula desnudos inexistentes a partir de imágenes reales y se considera una forma de violencia sexual digital. Las denuncias alertaron que estas modificaciones podían realizarse sin el conocimiento ni consentimiento de las mujeres retratadas, ampliando riesgos de acoso, humillación pública, extorsión y revictimización.
El caso escaló cuando Grok emitió una disculpa tras la difusión de una imagen sexualizada de dos niñas de entre 12 y 16 años, generada el 28 de diciembre de 2025. La propia IA reconoció que producir y distribuir imágenes sexualizadas de menores es ilegal bajo la ley federal de Estados Unidos y puede implicar penas de entre cinco y 20 años de prisión y multas de hasta 250 mil dólares.
La controversia se intensificó después de que Elon Musk reaccionara en tono burlón el 2 de enero a una imagen generada con Grok —un tostador con bikini— acompañada del texto: “Grok puede ponerle bikini a todo”, comentario que fue interpretado como una minimización de la violencia denunciada.
Las denuncias no se limitaron a nuestro país. En Francia, ministros presentaron una denuncia formal ante la fiscalía y organismos reguladores, calificando el contenido generado como “manifiestamente ilegal” y “sexual y sexista”. En el Reino Unido, el regulador de medios Ofcom exigió a X explicar cómo la IA produjo imágenes sexualizadas de personas reales y de menores.
En India, el gobierno ordenó a X eliminar y deshabilitar todo contenido “obsceno, desnudo, indecente y sexualmente explícito” generado por el chatbot. Organizaciones como RAINN ya habían advertido desde agosto de 2025 sobre el riesgo de que herramientas generativas de imagen y video facilitaran nuevas formas de abuso sexual digital.
Violencia sexual digital y pérdida del consentimiento
Para la abogada y especialista en derecho penal Leslie Jiménez Urzua, la manipulación de imágenes mediante IA sin consentimiento implica una agresión directa a la autonomía de las mujeres.
Debido a que la mayoría de estas imágenes tienen como fin la cosificación del cuerpo femenino, esta práctica se identifica como una forma de violencia sexual que ocurre en el entorno digital y afecta la integridad, la dignidad y la seguridad de las mujeres en espacios públicos en línea.
Aunque la Secretaría de las Mujeres ha señalado que estas conductas pueden sancionarse bajo la Ley Olimpia, especialistas advierten que el marco legal mexicano es fragmentado y presenta lagunas importantes frente al uso de inteligencia artificial.
La Ley Olimpia fue incorporada de manera desigual en los 32 códigos penales del país y en la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia. Sin embargo, la mayoría de estas legislaciones no mencionan de forma explícita el uso de IA, ya que fueron redactadas alrededor de 2018, cuando estas tecnologías no eran un mecanismo común de violencia.
En el caso de la Ciudad de México, la ley hace referencia a contenido “real o simulado”, lo que permite una interpretación extensiva para incluir imágenes creadas con IA. Aun así, Jiménez advierte que la falta de mención explícita en la ley general dificulta la investigación y sanción de estos casos.
Ante este vacío, existen tres vías principales para enfrentar la violencia sexual digital:
- Ley Olimpia: ruta penal para castigar la violencia digital, con dificultades por la redacción de los tipos penales y la falta de actualización tecnológica.
- Ley General en materia de Trata de Personas: utilizada sobre todo cuando la violencia es sistemática o involucra a menores de edad, aunque tampoco menciona de forma expresa la IA.
- Vía civil: orientada a la reparación del daño por el uso no autorizado de la imagen, sin sanción penal, y con costos que recaen en la víctima.
Prevención y responsabilidad de las plataformas
Hernández Mora informó que la Secretaría de las Mujeres mantiene acercamientos con distintas plataformas digitales en coordinación con la Agencia de Transformación Digital y Telecomunicaciones, aunque expresó preocupación por la falta de respuesta de X y su negativa a sostener reuniones al no contar con oficinas en México.
“La ausencia de sedes locales no exime a ninguna empresa tecnológica de su responsabilidad ética y legal con sus usuarias en territorio mexicano”, afirmó.
“El internet es un espacio que habitamos y debería ser libre de violencia. No es nuestra responsabilidad que alguien use nuestra imagen para violentarnos”, concluyó Jiménez.
¿Qué hacer si modifican tu foto con IA sin tu consentimiento?
Si una imagen tuya fue alterada, sexualizada o difundida mediante inteligencia artificial sin tu autorización, no es tu culpa. Existen acciones inmediatas que pueden ayudar a frenar la circulación del contenido y a documentar la agresión:
1. Documenta la violencia
Antes de que el contenido sea eliminado, guarda evidencias:
- Capturas de pantalla donde se vea la imagen, el usuario que la difundió, la fecha y la plataforma.
- Copia del enlace (URL) donde se publicó.
- Si es posible, registra el perfil del agresor o la cuenta desde donde se generó o compartió.
- Esta información es clave si decides denunciar o iniciar un proceso legal.
2. Reporta en la plataforma
Utiliza los mecanismos de denuncia de la red social donde apareció la imagen y señala que se trata de:
- Contenido íntimo no consensuado
- Violencia sexual digital
- Uso indebido de imagen o deepfake
Aunque las respuestas suelen ser lentas o insuficientes, el reporte deja constancia de la agresión.
3. Solicita apoyo especializado
Organizaciones civiles brindan acompañamiento legal y técnico para bajar contenido y evaluar rutas de acción:
- SocialTIC ofrece orientación sobre seguridad digital y reporte de contenido.
- R3D y Impunidad Cero cuentan con guías para identificar violencia digital y conocer cómo se aplica la Ley Olimpia en cada estado.
4. Evalúa la vía legal
Dependiendo del caso, existen distintas rutas:
- Penal, a través de la Ley Olimpia (aunque enfrenta limitaciones frente a la IA).
- Civil, para exigir reparación del daño por el uso no autorizado de tu imagen.
- En casos que involucren menores de edad, pueden aplicarse marcos legales más severos.
Un acompañamiento legal especializado puede ayudarte a decidir qué vía es la más viable.
5. Busca redes de apoyo
La violencia sexual digital tiene impactos emocionales reales. Hablar con personas de confianza, colectivas feministas o redes de acompañamiento ayuda a romper el aislamiento y la revictimización.
Especialistas insisten en que la responsabilidad es de quien violenta y de las plataformas que permiten estas prácticas, no de las mujeres por publicar una fotografía. Mientras el marco legal se actualiza, la información, la acción colectiva y la exigencia de rendición de cuentas siguen siendo herramientas clave para enfrentar la violencia sexual digital.

Por: 

