Israel ha incrementado el uso de IA y sistemas de armas autónomas letales (LAWS, por sus siglas en inglés) en su campaña de Gaza, lo que ha causado gran preocupación internacional. Estos sistemas son en gran medida irresponsables y aumentan el número de víctimas civiles. Son empresas estadounidenses las que proporcionan esta tecnología asesina y la IA. Los acontecimientos han estado en el centro de un debate jurídico en curso sobre el uso y la regulación de estos sistemas. En diciembre de 2023, la Asamblea General de las Naciones Unidas aprobó su primera resolución sobre los sistemas de armas autónomas. La comunidad internacional debe actuar con rapidez para proteger a los civiles inocentes de Gaza.
Reed McIntire
22 de mayo 2024
Chinese version | English version | German version
El uso de sistemas autónomos de armas letales (LAWS) y sistemas de selección de objetivos basados en IA por parte de Israel en su campaña en Gaza ha preocupado cada vez más a expertos legales y trabajadores humanitarios. Desde los ataques de Hamas del 7 de octubre, la prolongada campaña israelí en Gaza ha causado un gran número de muertes palestinas, la mayoría de ellas mujeres, niños e inocentes civiles.
La guerra en Gaza ha dejado claro que los robots asesinos y las máquinas de matar automatizadas ya no son ciencia ficción. El uso creciente de AWS y LAWS en Ucrania y Gaza plantea profundos problemas legales, éticos, humanitarios y de seguridad.
El uso de LAWS por parte de las Fuerzas de Defensa de Israel (IDF) para determinar, encontrar y atacar a los palestinos está aumentando la efectividad de la máquina de matar de Israel. El 16 de mayo de 2024, Sudáfrica, en su presentación ante la CIJ, mencionó específicamente la necesidad inmediata de detener a las IDF en el uso de LAWS para atacar y matar a palestinos. Según la presentación de Sudáfrica, el uso de IA por parte de las IDF para seleccionar objetivos coloca a los miembros de ciertos grupos de WhatsApp en la lista de asesinatos de Israel.
Según un informe de Euro-Med Human Rights Monitor, se ha visto a las IDF usando drones cuadricópteros equipados con armas en sus operaciones (https://euromedmonitor.org/en/article/6166/Gaza:-Israel-systematically-uses-quadcopters-to-kill-Palestinians-from-a-close-distance). Estos pequeños drones voladores se utilizaban anteriormente para la recopilación de inteligencia, pero desde entonces se han adaptado a una amplia variedad de tipos de misiones. El informe también afirma que estos drones se utilizaron indiscriminadamente contra civiles palestinos en ocasiones: “Las operaciones de francotiradores israelíes, asesinatos y ejecuciones apuntan principalmente a civiles desarmados en centros de refugio, hospitales, calles y áreas residenciales pobladas; estos civiles no representan ninguna amenaza o peligro para nadie, ya que no participan en ninguna hostilidad”.
La investigación mostró que drones asesinos con IA equipados con ametralladoras y misiles de las categorías Matrice 600 y LANIUS ya han matado a docenas de civiles, “disparando ametralladoras automáticas montadas debajo de la aeronave en reuniones aleatorias o disparando directamente a las personas.” Estos son LAWS altamente móviles y versátiles, es decir, ideales para operaciones a corto plazo. Euro-Med confirmó que estos drones cuadricópteros israelíes abrieron fuego el 11 de enero de 2024 contra palestinos que se habían reunido para recibir harina traída por camiones de la ONU. Israel negó esto.
Según Israel, el uso de IA y AWS por parte de las IDF generalmente requiere que un humano verifique cualquier objetivo adquirido antes de que se pueda tomar acción. Este mecanismo idealmente evitaría disparos accidentales o la identificación errónea de objetivos antes de que un civil sea herido. Informes e investigaciones independientes han desacreditado esta narrativa, afirmando que todo el proceso toma solo varios minutos antes de que se permita al sistema disparar.
Esta no es la primera vez que las IDF utilizan IA y drones en sus operaciones. En la incursión anterior en Gaza en 2021, las IDF utilizaron ampliamente un programa de IA para ayudar a identificar y matar objetivos. La cerca fronteriza que rodea la Franja de Gaza también estaba fuertemente equipada con tecnología impulsada por IA para ayudar en la vigilancia de la región fronteriza. Sin embargo, estos sistemas a menudo fallaron en reconocer con precisión a los individuos y no ayudaron a advertir sobre los brutales ataques de Hamas en octubre.
El uso de la IA y los sistemas autónomos de armas letales (LAWS) sigue siendo un área gris en el derecho internacional. En 2018, el Secretario General de las Naciones Unidas, António Guterres, los calificó como “políticamente inaceptables y moralmente repugnantes”, pidiendo su prohibición en el seno de la ONU. Reiteró esta solicitud en su Nueva Agenda para la Paz de 2023 y recomendó a la comunidad internacional aprobar un instrumento legalmente vinculante para prohibir los LAWS para 2026. Sin embargo, legislar sobre los LAWS sigue siendo difícil ya que no existe una definición acordada.
El 22 de diciembre de 2023, la Asamblea General de la ONU (AGNU) adoptó su primera resolución sobre AWS. Una abrumadora mayoría (152) de Estados Miembros estuvo a favor de la resolución, 4 votaron en contra (Bielorrusia, India, Malí y la Federación Rusa) y 11 Estados Miembros se abstuvieron (China, Irán, Israel, Madagascar, Corea del Norte, Níger, Arabia Saudita, Sudán del Sur, Siria, Turquía y los Emiratos Árabes Unidos). La Resolución 78/241 expresó preocupación por las posibles consecuencias negativas y el impacto de los AWS en la seguridad global y la estabilidad regional e internacional, mientras afirmaba que el derecho internacional, la Carta de la ONU, el derecho internacional humanitario (DIH) y el derecho internacional de los derechos humanos se aplican a los AWS.
La principal área de preocupación es la falta de responsabilidad cuando civiles son asesinados al usar AWS, LAWS y IA. Las IDF han sido en gran medida reacias a revelar mucho de sus programas de IA. No está claro cómo Israel determina a quién atacar. Como resultado, la proliferación de estos sistemas ha sido una gran causa de preocupación entre los observadores de la guerra en curso.
More Articles on Israel
Según Human Rights Watch, los avances tecnológicos han permitido el desarrollo de AWS «que operan sin un control humano significativo, delegando decisiones de vida o muerte a las máquinas». Ya no será un humano quien decida si, dónde y cuándo aplicar la fuerza, sino una máquina. Recientemente, las IDF compraron tres perros robóticos de la empresa estadounidense Ghost Robotics. Los perros robóticos, como estos, pueden usarse para exploración y reconocimiento en una amplia variedad de terrenos y condiciones. Aunque estos robots se envían desarmados, pueden ser equipados con armas para sus misiones.
La empresa estadounidense Palantir Technologies tiene estrechos vínculos con la CIA y es una de las compañías de minería de datos más avanzadas del mundo. Palantir ha estado ocupada suministrando a las agencias militares y de inteligencia de Israel capacidades avanzadas y poderosas de selección de objetivos. Con tales capacidades avanzadas de selección de objetivos, es difícil entender cómo las IDF cometieron el «error» de atacar a trabajadores humanitarios. La IA de Palantir también se despliega y se utiliza para ayudar a Ucrania a seleccionar sus objetivos.
Un artículo en The Nation titulado “Cómo la inteligencia estadounidense y una empresa estadounidense alimentan la máquina de matar de Israel en Gaza”, publicado el 12 de abril de 2024, destacó la estrecha conexión entre el gobierno de EE. UU., Palantir e Israel. Según el artículo, las máquinas de IA de Palantir necesitan datos como combustible (https://www.thenation.com/article/world/nsa-palantir-israel-gaza-ai/). Estos datos se proporcionan a través de informes de inteligencia de EE. UU. sobre palestinos en los territorios ocupados. Según documentos divulgados por el denunciante de la Agencia de Seguridad Nacional (NSA), Edward Snowden, una fuente de los datos de Palantir es la NSA, que ha estado proporcionando secretamente a Israel comunicaciones telefónicas y de correo electrónico sin censura entre palestinos estadounidenses en los EE. UU. y sus familiares en los territorios ocupados durante años. La IA de Palantir luego usa estos datos para seleccionar objetivos para las IDF. Desde el momento en que el algoritmo detecta y selecciona su objetivo (es decir, humanos), pasan solo unos pocos minutos hasta que estos objetivos son perseguidos (es decir, asesinados), un término utilizado en el campo. En la guerra convencional previa a la IA, este proceso podría llevar hasta seis horas.
Palantir está desarrollando ahora un sistema de selección de objetivos aún más mortal llamado TITAN (Nodo de Acceso de Selección de Inteligencia Táctica). Según Palantir, TITAN es una “estación terrestre de Inteligencia, Vigilancia y Reconocimiento de próxima generación habilitada por Inteligencia Artificial y Aprendizaje Automático para procesar datos recibidos de capas Espaciales, de Gran Altitud, Aéreas y Terrestres.” Según la investigación de The Nation: “Aunque diseñado para uso del Ejército de EE. UU., es posible que la compañía pueda probar prototipos contra palestinos en Gaza.” Human Rights Watch y Stop Killer Robots han expresado una profunda preocupación por este desarrollo.
El Ministerio Federal de Asuntos Europeos e Internacionales de Austria organizó una conferencia internacional titulada “La Humanidad en la Encrucijada: Sistemas de Armas Autónomas y el Desafío de la Regulación” el 29-30 de abril de 2024 en el Palacio de Hofburg en Viena. Los participantes incluyeron a todos los Estados Miembros de la ONU, la ONU, el CICR, organizaciones internacionales y regionales, representantes de la academia, centros de pensamiento, la industria y la sociedad civil. Esta conferencia fue un paso importante en el largo camino hacia encontrar un consenso internacional sobre la regulación y el control de los AWS y los LAWS.
Se deben hacer todos los esfuerzos posibles para negociar este nuevo tratado internacional para prohibir y regular los LAWS, pero desafortunadamente, es probable que todos estos esfuerzos lleguen demasiado tarde para salvar vidas inocentes en Gaza.