El 8 de marzo nos convoca a las calles para denunciar las violencias históricas contra las mujeres, pero hoy esa lucha también se libra en bits y píxeles. En México, la Inteligencia Artificial (IA) ha dejado de ser una promesa de futuro para convertirse en una herramienta que, en muchos aspectos, potencia agresiones sistemáticas. La creación de deepfakes, es decir, imágenes y vídeos generados con IA que suplanta la identidad visual de una persona sin su consentimiento, no es un "juego tecnológico", es una nueva frontera de la violencia de género que explota la impunidad digital para vulnerar la dignidad de niñas y mujeres. Este texto analiza cómo la tecnología, lejos de ser neutral, está profundizando las brechas de desigualdad y por qué urge una respuesta con perspectiva interseccional.
El rostro de la violencia algorítmica
Para entender la magnitud del problema, basta mirar las cifras. Según el Módulo sobre Ciberacoso (MOCIBA) 2024, el 22.2% de las mujeres usuarias de internet en México fueron víctimas de ciberacoso. Aunque la Ley Olimpia marcó un hito en la sanción de la violencia digital, la aparición de la IA generativa ha creado vacíos que los agresores aprovechan. A pesar de no existir datos oficiales en México, se estima que a nivel internacional el 99% de las personas objetivo de deepfakes son mujeres.
Un caso alarmante que ilustra esta vulnerabilidad sistémica ocurrió a finales de 2025 y principios de 2026 con Grok, el chatbot de IA de la plataforma X (antes Twitter). En apenas nueve días, esta herramienta generó y difundió más de 4.4 millones de imágenes, de las cuales se estima que al menos 1.8 millones eran contenidos sexualizados de mujeres y menores de edad. Los usuarios inundaron el chatbot con solicitudes para crear deepfakes. Este evento no solo revela la facilidad de acceso a estas tecnologías, sino la irresponsabilidad de las empresas que, en busca de niveles récord de interacción, integran herramientas de abuso a gran escala sin protocolos mínimos de seguridad.
La tecnología no es neutral
La violencia digital potenciada por IA no es un fenómeno aislado, sino una constante de la violencia estructural. Las herramientas tecnológicas portan sesgos y valores de quienes las crean (a nivel mundial las mujeres representan sólo el 6%), replicando un sistema patriarcal donde los cuerpos de las mujeres son tratados como objetos disponibles para el consumo sin consentimiento.
Desde una perspectiva interseccional, debemos reconocer que el impacto no es igual para todas. Las mujeres jóvenes, periodistas, activistas y mujeres de la diversidad sexual enfrentan riesgos diferenciados. El daño no termina en la pantalla, el "sexismo algorítmico" garantiza que este contenido se distribuya con una velocidad que las leyes actuales difícilmente pueden alcanzar, afectando la salud mental, la seguridad física y la participación pública de las víctimas.
Un sistema que favorece la impunidad
¿Por qué persiste esta violencia? Primero, por los modelos de negocio de las grandes plataformas que priorizan el tráfico de datos sobre la seguridad de las usuarias. Segundo, por las deficiencias en nuestro sistema de justicia que impiden que las leyes se traduzcan en sanciones reales.
Recientemente, el pleno de la Cámara de Diputados dio un paso necesario al aprobar por unanimidad reformas a la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia. Esta modificación es clave porque redefine la violencia digital como aquellos actos dolosos que, con o sin connotación sexual, causen daño a la intimidad, privacidad o dignidad de las mujeres mediante el uso de tecnologías. Lo más relevante es que ahora se reconoce explícitamente el uso de la IA para acechar, acosar, denigrar o usurpar la identidad de una mujer basándose en estereotipos de género.
Sin embargo, en un país donde la brecha entre la ley y la realidad es un abismo, el camino hacia una sentencia sigue siendo tortuoso. Los datos del MOCIBA revelan que solo el 11.2% de las víctimas de ciberacoso denuncia ante el Ministerio Público o la Fiscalía. Esta cifra no es casualidad; refleja una desconfianza sistémica.
De nada sirve tipificar nuevos delitos si el sistema judicial mantiene una ausencia de personal verdaderamente capacitado en materia de género y tecnología. Esto deriva en interpretaciones legales que revictimizan a las mujeres o en el uso de tecnicismos para justificar absoluciones, dejando a los agresores en libertad bajo el argumento de una "falta de pruebas digitales" que las autoridades, por negligencia o desconocimiento, no supieron recabar ni preservar.
El camino hacia la justicia
La discusión sobre cómo se castiga la violencia digital en México no es nueva; desde Impunidad Cero hemos señalado previamente que, aunque existen leyes, la falta de una ruta clara para las víctimas mantiene la puerta abierta a la impunidad. Sin embargo, la sofisticación que aporta la IA hoy nos obliga a ir más allá de la simple tipificación de delitos. El punitivismo y el aumento de penas son insuficientes si no existe una capacidad institucional real para comprender y perseguir el delito informático con perspectiva de género.
Mientras logramos que el Estado asuma su responsabilidad, el fortalecimiento de la ciudadanía y las redes de apoyo es vital. Incluso en Impunidad Cero compartimos la Guía de Defensa Contra la Violencia Digital, una herramienta diseñada para ayudar a las personas a identificar estas agresiones, conocer las distintas vías (penales y civiles) para acceder a la justicia y saber cómo solicitar la remoción de contenidos en las plataformas, aquí.

Por: 