top of page

"Alexa, bombardea la Franja de Gaza"

Actualizado: 3 mar

La revolución de la Inteligencia Artificial (IA) tiene el potencial de cambiar nuestras vidas de una forma que aún nos cuesta concebir. Lo que si es seguro es que está significando un cambio tan radical como el de la invención de internet, o incluso el motor de combustión. En las aplicaciones más simples nos podemos encontrar con un generador de textos o incluso de imágenes y vídeos pero, ¿qué ocurre con las aplicaciones militares de esta nueva tecnología?


En 2002 el Ejército de los Estados Unidos ya practicaba con drones pilotados de forma autónoma por una IA capaz de entrar en un edificio, registrar todas sus habitaciones e identificar cuales estaban ocupadas por civiles y cuáles por los objetivos a abatir. En pocos minutos se tenía una imagen completa del teatro de operaciones y poder seguir el camino más eficaz para el cumplimiento de la misión. En la actualidad la tecnología de la IA ha avanzado mucho y como la tecnología nuclear, puede servir para dar luz a una región entera o para destruir a la humanidad.


La aplicación de la IA en el terreno de la inteligencia permitió a los analistas predecir la invasión rusa de Ucrania meses antes de que ocurriera y reventar el factor sorpresa que pretendía Putin.


Sin embargo el uso de la IA no se ha limitado al entrenamiento militar o para conseguir la paz en Europa, no. Hoy en día Israel está usando la IA en guerra y ocupación de Gaza. Las Fuerzas de Defensa de Israel (FDI) usan el sistema Lavander para identificar a miembros de Hamás y de la Yihad Islámica, o personas con alguna relación, de forma automática. La IA analiza toda la información de la población de Gaza obtenida gracias a la vigilancia masiva que lleva Israel haciendo casi dos décadas. Una vez tiene la información, otorga a la población entre 1 a 100 puntos que marcan la posibilidad de cercanía con Hamás o la Yihad Islámica. Con este sistema se identificaron unas 37.000 personas con capacidad de convertirse en objetivos militares y con una fiabilidad del 90% tras ser contrastado con personal humano según publica Israel.

Heridos en el bombardeo israelí del hospital Al Ahli, en Gaza, llegan en ambulancia al de Shifa. EITB.eus
Heridos en el bombardeo israelí del hospital Al Ahli, en Gaza, llegan en ambulancia al de Shifa. EITB.eus

La duda surge a la hora de contrastar el número de víctimas civiles con la teórica precisión de la IA, ya que a fecha de publicación de este artículo han sido asesinados 15.000 niños y niñas palestinos y más de 8.000 mujeres. La respuesta es sencilla, las FDI ha decidido que la muerte de entre 15 a 20 civiles por cada miembro de bajo rango de Hamás muerto (100 si es un cargo de cierta importancia) es un ratio aceptable y si se supera tampoco significa mayor problema. Para esos ataques usan las denominadas "bombas tontas" que son proyectiles no guiados que van a una zona predeterminada antes de lanzarlo.


Lavander es una IA especializada en el reconocimiento de personas que las FDI combinan con the Gospel otra IA que se dedica al reconocimiento de edificios y estructuras. Según publicó The Guardian (enlace):

Cuando se trataba de atacar a sospechosos de Hamás de bajo rango, decían, se prefería atacar cuando se creía que estaban en casa. "No nos interesaba matar a los operativos [de Hamás] sólo cuando estaban en un edificio militar o participando en una actividad militar", dijo uno de ellos. "Es mucho más fácil bombardear la casa de una familia. El sistema está construido para buscarlos en estas situaciones".

Es fundamental establecer salvaguardias para garantizar que la IA no cause daño indiscriminado ni viole derechos humanos. La transparencia, la supervisión y la ética deben guiar su desarrollo y uso en contextos militares. Ese control y rendición de cuentas que es prescriptivo para cualquier estado del mundo, no lo esta siendo para Israel. Ya que Estados Unidos sigue bloqueando cualquier iniciativa en la ONU que solo mencione las violaciones flagrantes de los Derechos Humanos que hace Israel de forma sistemática contra la población palestina, los trabajadores humanitarios y los defensores de los derechos humanos. Mientras esta realidad no cambie, el "mundo basado en reglas" no pasará de un eslogan político vacío de contenido.

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación

Historias del día

Síguenos en redes sociales:

  • TikTok
  • Instagram
  • Linkedin
  • Bluesky_Logo.svg

© 2035 por La jornada global. Desarrollado y protegido por Wix

Haz una donación ahora

Ayúdanos a marcar la diferencia

¡Gracias por tu donación!

bottom of page