top of page

Deepfakes y democracia: Cuando la IA se usa para expulsar a las mujeres de la política

Con motivo del Día Internacional de la Mujer Trabajadora, este 8 de marzo, millones de voces se alzan para decir "basta". Basta a la violencia, basta a la cosificación de nuestros cuerpos, y basta a la estrategia sistemática de invisibilizar a la mujer en los puestos de poder y en la esfera pública.


No se trata de un problema nuevo; el acoso y las agresiones sexuales hacia las mujeres son lacras con siglos de historia. Sin embargo, la tecnología ha dado a luz a una nueva y perversa tipología de persecución de género que merece toda nuestra atención: el uso de deepfakes pornográficos como arma de desgaste político.



Esta nueva forma de violencia digital, impulsada por el desarrollo exponencial de la Inteligencia Artificial (IA), representa una evolución extrema de la cosificación femenina. Ya no es necesario el asedio de un paparazzi para obtener una imagen comprometida de una política o una figura pública. Hoy, con una simple fotografía de su rostro y herramientas de IA de acceso gratuito, cualquier persona puede generar imágenes y vídeos sexualmente explícitos hiperrealistas, manchando su honor y dignidad sin necesidad de que exista una realidad detrás.


La magnitud del problema es abrumadora y revela una clara diana: las mujeres. Según datos del informe realizado por Home Security Heroes, “State of Deepfakes 2023”, la cantidad de pornografía deepfake creada aumentó un 464% entre 2022 y 2023, y el 99% de este contenido tenía como víctimas a mujeres. Unos datos que a día de hoy siguen aumentando, y es que según otros informes de ciberseguridad de entre 2023 y 2025, el número de deepfakes se ha multiplicado por 16 en 2 años.


Algo que no es casual, pues todos sabemos el gran mercado que existe para el porno y la prostitución. "Desviste a cualquiera con nuestro servicio gratuito", reza el mensaje de bienvenida de una de estas páginas web. Para crear un vídeo porno deepfake de 60 segundos, se necesitan menos de 25 minutos y cero euros. Esta facilidad de uso convierte a la tecnología en un arma de destrucción masiva de reputaciones, disponible para cualquiera con un rencor político o un sesgo misógino.


Tradicionalmente, la desacreditación de una figura pública femenina pasaba por el escrutinio de su vida privada o la difusión de imágenes robadas. Hoy, la IA ha democratizado y perfeccionado el insulto. Ya no se busca solo un "topless" accidental, sino que se construye una realidad sexual ficticia y vejatoria con el único fin de degradar, humillar y silenciar. Esta hipersexualización forzada es un ataque directo a la legitimidad de la mujer en el espacio público. Se le recuerda, de la manera más violenta, que su valor sigue estando atado a una moral sexual castigadora, y que osar ocupar un lugar de poder la convierte en blanco de este tipo de represalias digitales.


La diputada Laura McClure muestra en la Cámara una foto desnuda deepfake de sí misma generada por IA
La diputada Laura McClure muestra en la Cámara una foto desnuda deepfake de sí misma generada por IA

Al haberse construido la sexualidad femenina sobre una base marcada por la vergüenza y la culpa, este nuevo ciberacoso sigue los patrones tradicionales de violencia sexual para las mujeres. Y es que, aunque las imágenes sean falsas, el daño es profundamente real. La mera existencia de estos vídeos, aunque sean un montaje, activa los mismos resortes de estigmatización social que una filtración real. La víctima se enfrenta a la vergüenza pública, la sensación de desprotección y una pérdida de control total sobre su propia narrativa, viendo cómo su cuerpo, su imagen y su honor son violentados y puestos a disposición del escarnio público.


Este fenómeno se desarrolla en un terreno pantanoso para la justicia. Todo ello deviene del gran vacío legal que existe. A día de hoy, la creación de imágenes sexuales generadas por IA no se contempla como un delito específico en el Código Penal. Sin embargo, esto no significa que siempre sea una práctica impune. Vulnera derechos fundamentales como la protección de datos, la privacidad, la intimidad y la propia imagen. Al estar ante un tratamiento de datos personales sin consentimiento (como sería el coger el rostro de una mujer para ponerle un cuerpo de otra mujer desnuda) y su difusión en redes, estaríamos ante un delito de lesión al honor al atentar contra la vida íntima y dignidad de las víctimas.


El agujero legal es aprovechado, y en muchos casos instigado, por los propios dueños de las plataformas y las grandes corporaciones tecnológicas. El desarrollo de estos algoritmos se ha centrado en la precisión técnica, no en las derivadas éticas. Grupos de extrema derecha y foros de odio misógino han encontrado en estas herramientas un filón para acosar a adversarias políticas, periodistas y activistas, mientras las plataformas, con unas normas de cumplimiento a menudo laxas y reactivas, permiten la proliferación de este contenido, actuando como altavoces de la violencia.



El impacto psicológico en las víctimas es devastador: ansiedad, depresión, pérdida de autoestima y, en casos graves, ideación suicida. Pero el daño trasciende lo individual. Cuando una mujer que aspira a un cargo público o ya lo ostenta sabe que cualquier foto suya puede ser convertida en un arma sexual, el efecto es un claro apartamiento de la esfera pública. Se genera un efecto disuasorio que silencia voces, limita la participación política de las mujeres y empobrece nuestra democracia.


Este 8 de marzo, al denunciar la violencia contra la mujer, debemos incluir esta nueva realidad en nuestras demandas. Necesitamos una actualización urgente de los marcos legales que tipifique como delito específico la creación y difusión de deepfakes pornográficos. Exigimos a las plataformas tecnológicas que asuman su responsabilidad y modifiquen sus políticas para actuar de forma preventiva, no sólo reactiva. Reclamamos una alfabetización digital crítica que desmonte la peligrosa idea de que "si es falso, no hace daño".


Porque el objetivo final de esta violencia digital es el mismo que el de toda violencia machista: cosificar, silenciar y expulsar. Y a eso, desde todos los frentes, decimos basta.


Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación

Historias del día

Síguenos en redes sociales:

  • Youtube
  • TikTok
  • Instagram
  • Linkedin
  • Bluesky_Logo.svg

© 2035 por La jornada global. Desarrollado y protegido por Wix

Recibe los artículos al instante al correo

Haz una donación ahora

Ayúdanos a marcar la diferencia

Gracias por tu donación

bottom of page