En México y el mundo, la crisis de violencia contra las mujeres no para y la llegada de la Inteligencia Artificial (IA) ha traído a internet una nueva forma de violencia digital: la creación o manipulación de imágenes íntimas no consentidas con el uso de IA

Desde herramientas como Grok, Meta y otras aplicaciones, la inteligencia artificial se ha convertido en un nuevo terreno para la violencia digital y la revictimización de las mujeres. De acuerdo con el estudio, 2023 State of deepfakes, del grupo de investigación de Security Hero, el 99% de víctimas por deepfakes son mujeres. Además, un estudio del gobierno del Reino Unido, proyectó que de 2023 a 2025, la producción de deepfakes ascendería a ocho millones en 2025 , frente a las 500 mil de 2023, lo que anticipa una expansión masiva de esta violencia digital.

Las mujeres tenemos derecho a habitar el internet y las redes sociales libremente,  pero ¿qué pasa cuándo somos víctimas de este tipo de violencia digital? En esta guía te explicamos cómo actuar ante la difusión de imágenes creadas o manipuladas por IA.

Imagen

¿Qué hago si se difunden imágenes mías creadas con IA?

Si una imagen tuya manipulada con IA aparece en línea, la guía de ONU Mujeres, Abuso en línea impulsado por la IA: cómo la IA amplifica la violencia contra las mujeres y qué puede detenerla, señala que, aunque no hay una forma correcta de responder, se puede accionar de diferentes maneras y proceder. 

Antes de continuar, es importante que sepas que el abuso nunca es tu culpa. La responsabilidad recae en el perpetrador y en las plataformas que permiten su difusión. Ahora sí, si detectas que tu seguridad ha sido vulnerada o que circula contenido manipulado sobre ti, los primeros pasos: 

  1. Denuncia en la plataforma: utiliza las herramientas y funciones de reporte de la plataforma en la que se originó el abuso para romper el contacto con el agresor y solicitar la eliminación del material. Por ejemplo, X y Meta cuentan con la opción de "Denunciar publicación" y "Reportar" y puedes hacerlo en su Centro de Apoyo al usuario, respectivamente.

  2. Preservar evidencia: no borres el contenido sin antes guardar capturas de pantalla, enlaces y marcas de tiempo como la fecha y horario en la que se dio el abuso. Esta información es vital si decides realizar una denuncia legal.

¿Cómo frenar el avance de la difusión de deepfakes o imágenes creadas con IA?

Después de seguir los primeros pasos, es importante frenar el avance de la difusión de contenido creado o manipulado por IA. De acuerdo con la información de ONU Mujeres, existen herramientas específicas y recomendaciones sobre lo que se debe hacer cuando una persona es víctima de abuso mediante imágenes generadas o manipuladas con IA en casos de la creación de material íntimo no consentido. Estas son algunas de las herramientas que puedes utilizar para prevenir la difusión y eliminar imágenes: 

Imagen

Para frenar la difusión de deepfakes: 

Stop Non-Consensual Image Abuse: ayuda a las víctimas de pornografía de venganza o revenge porn. Si una imagen íntima está en manos de alguien que podría utilizarla con malos fines, esta herramienta genera una huella digital de la imagen para impedir que otras personas puedan compartirla en línea con una tasa de eliminación de hasta el 90%. 

La herramienta funciona un código que permite que el algoritmo detecte todas las copias duplicadas en internet sin necesidad de que el contenido original sea visto por personas y contacta a plataformas aliadas para que detecten y eliminen el contenido que coincida con esa huella. Entre los colaboradores se encuentran Facebook, Instagram, Microsoft, Pornhub, Onlyfans, X, Patreon, Reddit, Redgifs y Bluesky.

Lo que debes hacer es: 

  1. Entrar a StopNCII.org y seleccionar “Crea tu caso”.

  2. Completar un cuestionario sobre el caso (edad, contenido de la imagen, etc.).

  3. Subir las imágenes: se deben subir tanto las fotos reales como las modificadas por IA o Photoshop para que el sistema pueda combatirlas mejor. Se permiten hasta 20 archivos por caso.

  4. Es requisito ser mayor de edad y que las imágenes sean de uno mismo.

Take It Down: es una herramienta diseñada específicamente para ayudar a eliminar de internet imágenes o videos de desnudos (totales o parciales) o contenido sexualmente explícito de personas menores de 18 años. Su funcionamiento se basa en un proceso técnico que prioriza la privacidad del usuario.

Al igual que StopNCII, el sistema funciona mediante la asignación de una huella digital única a la imagen o video que se desea proteger para identificar copias exactas del archivo en la red sin necesidad de analizar el contenido visual de forma directa.

Un aspecto fundamental de esta herramienta es que la imagen o el video nunca salen de tu dispositivo. El proceso de creación del hash ocurre localmente, lo que garantiza que nadie vea el contenido original durante el proceso y que ell archivo no se suba a ningún servidor ni se comparta con terceros.

Aunque esta plataforma se adscribe al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, puedes acceder a ella sin importar la parte del mundo en la que te encuentres. 

Se recomienda no descargar contenido ajeno, solo se deben realizar solicitudes para imágenes o videos que ya estén en tu dispositivo. Recuerda no enviar, compartir ni descargar material de terceros para remitirlo a la plataforma, pues tu cuenta podría ser bloqueada.

Para buscar contención emocional: 

Al enfrentarse a la difusión de deepfakes y contenido intimo creado o manipulado por IA, ONU Mujeres recomienda acudir a una persona de confianza para no cargar con la carga emocional de manera solitaria. En caso de no contar con una persona familiar o con una amiga, también puedes acudir a diversas organizaciones que proveen apoyo emocional en caso de violencia digital. Las siguientes son algunas de las organizaciones

  1. The Cybersmile Foundation:  brinda apoyo emocional y orientación global para quienes experimentan abuso o ciberacoso.

  2. Manual de campo sobre el acoso en línea: este es un directorio especializado para periodistas y activistas que ofrece contactos de emergencia y consejos de seguridad digital.

  3. Defensoras digitales: ofrecen alfabetización en el tema y acompañamiento a víctimas de violencia digital

  4.  La Guía de Defensa contra la Violencia Digital de la Red en Defensa por los Derechos Digitales (R3D) e Impunidad Cero, que tiene como objetivo ayudar a las personas a entender y enfrentar la violencia digital, más allá de un proceso penal y enfocándose en lo que se puede hacer en materia civil. 

¿En dónde puedo denunciar?

En México, la difusión no consentida de imágenes íntimas es un delito grave sin embargo, cuando se trata de imágenes creadas o manipuladas con inteligencia artificial, las sanciones no están claramente definidas. En el ámbito legal persisten vacíos y ambigüedades que dificultan la investigación y el castigo de este tipo de violencia digital, de acuerdo con Leslie Jiménez, abogada y especialista en Derecho Penal. 

Y es que la  ley Olimpia contra la violencia digital hace referencia a contenido “real o simulado”,  lo que permite interpretar que la inteligencia artificial está contemplada, aunque no se mencione de manera técnica. Esta falta de referencia explícita en la Ley General de Acceso sigue siendo un obstáculo para investigar y procesar estos casos. Entonces, ¿qué se puede hacer?

  1. Denuncia a través de la Policía Cibernética: puedes contactar a la Policía Cibernética de la Secretaría de Seguridad Ciudadana de la CDMX por correo electrónico o al teléfono 55 5242 5100 ext. 5086 para recibir orientación y presentar una denuncia.

  2. Acude al Ministerio Público (MP): también puedes acudir de manera presencial a la agencia del MP más cercana a tu domicilio para levantar un acta o iniciar una investigación.

  3. Denuncia Digital: en la Ciudad de México, puedes iniciar una denuncia digital a través del portal Denuncia Digital CDMX.

¿Qué puedo hacer para salvaguardar mi seguridad en internet?

Para salvaguardar tu seguridad en internet y protegerte del abuso digital, potenciado por la IA, es recomendable comenzar a construir hábitos de seguridad y prevención. Recuerda que la seguridad comienza con la configuración técnica de tus cuentas y una actitud crítica ante la información. Por ello, puedes seguir los siguientes consejos: 

  1. Fortalece el acceso a tus cuentas: es fundamental utilizar contraseñas seguras y únicas para cada cuenta y activar la autenticación de dos factores (2FA), una “capa” de seguridad que exige dos tipos de verificación para acceder a una cuenta en todas las plataformas posibles.

  2. Ten control sobre tu privacidad: si lo deseas, puedes revisar periódicamente la configuración de privacidad en tus redes sociales y aplicaciones para limitar quién puede ver tu información o etiquetarte.

  3. Limpia tus dispositivos de malwares: verifica que tus dispositivos no tengan instalado software espía o aplicaciones de seguimiento no autorizadas.

  4. Exigir rendición de cuentas a las plataformas:  es importante exigir rendición de cuentas a las empresas tecnológicas para que implementen funciones de denuncia más claras y sistemas éticos antes de lanzar nuevas herramientas de IA que perpetúan violencia y abuso de género digital. 

  5. Denunciar el abuso a terceros: si eres testigo de abuso contra otra persona, denunciarlo ayuda a las plataformas a detectar y frenar a los perpetradores más rápido. Así, no solo nos cuidamos individualmente, nos cuidamos a todas.