Genocidio y nuevas tecnologías

El uso de la inteligencia artificial contra el pueblo palestino

El crecimiento de la IA a nivel mundial llama la atención por su impacto en muchas áreas, como la política, económica, tecnológica y también en la guerra y la represión. Tiene un impacto en los derechos humanos, sobre todo cuando se utiliza para vigilar, reprimir y controlar. Llamó la atención de los medios cuando se conocieron los datos de como el gobierno de Xi Jinping utiliza sistemas de vigilancia contra los uigures en el oeste de China, pero no se refería a esa tecnología como IA, aunque sin duda lo es. También se la utiliza para obtener listas de asesinatos (kill lists), como lo hace Israel para identificar objetivos para ataques con misiles.

La IA se está integrando rápidamente a las operaciones militares en todo el mundo, sobre todo en los sistemas de ataque, recopilación de inteligencia y toma de decisiones. Su incremento en la autonomía reduce la necesidad de un control humano, lo cual levanta preocupaciones (a veces apocalípticas estilo ciencia ficción) de máquinas que toman decisiones de vida o muerte sin una intervención significativa por parte de personas.

Tecnologías basadas en IA como drones, armas automáticas y sistemas avanzados de objetivos militares son ahora parte del arsenal de los ejércitos (es paradigmático el uso de los drones por parte del ejército ucraniano). El aumento significativo del uso de estas tecnologías por parte de los ejércitos y su cada vez mayor delegación en la toma de decisiones es preocupante. Además, el nivel de vigilancia con el cual estas tecnologías se alimentan viola la protección de la privacidad hasta de las laxas leyes internacionales y muchos derechos civiles nacionales.

Además, muchas veces la información sobre la que se basa estas tecnologías es errónea o sesgada (siempre intencionalmente), que lleva a «errores» devastadores, que llevan a resultados como las decenas de miles de asesinatos cometidos por bombardeos en Gaza.

Las decisiones humanas siguen siendo centrales en la IA

Si bien, como venimos diciendo, una de las características principales de la IA es la automatización y la posibilidad de tomar decisiones de forma autónoma, se podría pensar que esto llevaría a reemplazar a las personas, tanto en el trabajo como en la guerra. Pero hasta ahora este no ha sido el caso.

En el caso del bombardeo sobre Gaza de las Fuerzas de Defensa de Israel (FDI), éstas han llenado de cráteres complejos residenciales enteros, convirtiendo casas, hospitales, escuelas y calles en escombros. Las FDI han tirado más explosivos sobre Gaza de los que estaban contenidos en las bombas atómicas que destruyeron Hiroshima y Nagasaki[1].

Sin embargo, en comparación con los conflictos del siglo XX, la guerra en Gaza es fundamentalmente una masacre con herramientas de última tecnología. Recientes investigaciones demuestran como se han empleado IA de forma protagónica en la matanza[2]. Las FDI han utilizado una computadora apodada “Lavander” para generar decenas de miles de “objetivos humanos» para asesinatos, con la justificación de que supuestamente formaban parte del brazo armado de Hamas o la Yihad islámica Palestina. Estos objetivos eran transmitidos a un sistema automático de rastreo llamado «Where’s Daddy?”, habilitando al ejército a matar a los supuestos objetivos militares junto con la familia entera y muchas veces también a muchos de sus vecinos. El uso de sistemas de IA para encontrar objetivos en Gaza es solo el comienzo, pero transforman esta masacre en ser una de las primeras en utilizarlo de esta manera[3].

Estas revelaciones fueron posteriores a otra investigación de +972 Magazine y Local Call, que iluminaron sobre otra IA que generaba objetivos, llamada “Habsora”. Mientras que Lavender generaba objetivos humanos, Habsora marcaba los edificios y estructuras que supuestamente eran de uso militar.

Estas investigaciones posteriormente alertaron a la comunidad internacional y a la prensa. Algunos comentaban que estas escenas de sistemas destructivos potenciados por IA excedían el poder de sus operadores humanos y mataban a voluntad. Pero esto no es así, expertos en leyes internaciones y la guerra con IA resaltan que la masacre en Gaza es el resultado de concienzudas decisiones humanas. Las distintas tecnologías que utiliza el ejército están diseñadas junto a empresas civiles como Microsoft, OpenIA y Meta, para generar una mayor cantidad de objetivos militares, acelerar la toma de decisiones, generar una matanza de apariencia tecnológica. Pero esta tecnología es generada con ese sesgo, el del un genocidio, y no desliga de responsabilidad al ejército que la emplea.[4] Junto a las altas esferas del ejército y las instituciones políticas israelíes, también tomaban parte en la masacre porciones enteras del campo global de la tecnología civil.

Aceleración en las autorizaciones

Con la cantidad de muertes civiles diarias en Gaza, superior a cualquier otro conflicto del siglo XXI, oficiales del ejército israelí admiten haber relajado el criterio con el cual determinaban qué objetivos podían ser asesinados en sus hogares, a la vez que aumentaban el umbral permitido de bajas civiles en cada ataque, en algunos casos autorizando la muerte de cientos de civiles por un solo blanco militar.

Es decir, el criterio para que un blanco sea considerado como militar es más laxo por parte de las FDI y, a su vez, están dispuestos a permitir una mayor cantidad de muertes civiles para justificar un asesinato militar. En 2014, las FDI aceptaban una muerte civil por cada objetivo militar de alto rango, ese número pasó a 20 muertes civiles por un objetivo militar de bajo rango y a un número mayor de muertes civiles si el objetivo es de nivel medio o alto rango[5]. Aunque estos números son los aceptados por algunos testigos militares, y el número real podría ser mucho mayor.

En pocas palabras, Israel no delegó sus decisiones a armas completamente automáticas. Al contrario, las unidades de inteligencia utilizan sistemas de selección de objetivos basados en inteligencia artificial para clasificar a los civiles y la infraestructura civil, según su probabilidad de estar afiliados a organizaciones militares. Esto acelera rápidamente y expande el proceso por el cual el ejército elige a quien matar, generando en un día más objetivos que los que el personal humano podría generan en un año.

Junto a esta aceleración en la generación de objetivos militares, viene una aceleración en la autorización de los ataques. Oficiales del ejército admiten dedicar solamente 20 segundos a firmar una autorización de bombardeo, a pesar de saber que Lavender, aun para sus criterios tan laxos, comete errores en por lo menos un 10% de los casos. Los oficiales simplemente se limitan a revisar que el blanco fuese un hombre, convirtiendo de esta forma a la totalidad del territorio de Gaza en una trampa mortal.

Estos datos revelan un grado de autonomía y confiabilidad depositados en la IA muy alarmantes. Permite al ejército firmar fríamente y utilizar sistemáticamente a la población civil como objetivo. Estos sistemas de última tecnología no tienen el menor miramiento sobre las vidas humanas. Tampoco el ejército sionista que los emplea.

Reiteramos, si bien estas tecnologías demuestran ser problemáticas hasta para los estándares de derechos y leyes de guerra internacionales (lo cual realmente nunca le importó mucho a Israel o Estados Unidos), no actúan de forma completamente autónoma, subyacente está el problema de que como son manipuladas. Paradójico es que esta discusión remita a la responsabilidad de las personas sobre sus acciones, como el caso de los oficiales nazis en los campos de concentración, donde se asumían como burócratas que solo firmaban papeles para la deportación de los prisioneros.

Vigilancia

Los sistemas de generación de objetivos basados en IA son el resultado natural del sistema de vigilancia masiva implementado en Israel, pero que también se utiliza ampliamente en todo el mundo.

Los llamados algoritmos de vigilancia predictiva, sistemas de reconocimiento facial, se alimentan de enormes cantidades de información obtenida de distintas fuentes, incluyendo redes sociales, información en teléfonos celulares, fotografías y filmaciones de drones y cámaras de seguridad.

Por lo tanto, el abuso de la IA para obtener objetivos puede tener bases en el ejército, pero también implica a la industria tecnológica civil y comercial. Los sistemas de IA descansan en información de vigilancia extraída y analizada por empresas privadas, conglomerados mundiales de tecnología y técnicos militares.

Técnicos del Sillicon Valley desarrollaron el software de Google Image, que las tropas israelíes usan para detener a civiles palestinos. Algoritmos de moderación de contenido desarrollado por Meta en Nueva York ayudan a las herramientas de vigilancia a clasificar a civiles de acuerdo con la probabilidad de que formen parte de grupos de militancia política.

Por eso trabajadores de Amazon y Google, entre otros grupos de trabajadores de la industria tecnológica, se organizaron en grupos como “No Tech for Apartheid”, una coalición de trabajadores que se oponen a los contratos con el ejército israelí. Estas empresas son solo parte de la basta cadena de proveedores de algoritmos para la guerra de hoy.

La IA en el debate internacional

Hoy, las tecnologías de IA como Machine Learning y los Large Language Model (modelo extenso de lenguaje), son parte del debate internacional. Todas las grandes empresas y naciones están compitiendo para desarrollar sus propias tecnologías. Recientemente, China sorprendió con DeepSeek, una IA del estilo de ChatGPT (de hecho, está basada en ChatGPT) pero que parece ser superior en todas las mediciones. La sorpresa radica en que fue producida justamente por China, en secreto hasta su lanzamiento, y por una fracción del precio con el cual la producen en el Sillicon Valley.

El hecho de que China la haya producido alarmó mucho no solo a los mercados sino también a los gobiernos, ya que EEUU restringe al país asiático el acceso a los microprocesadores necesarios para desarrollar inteligencias artificiales, y aun así pudo hacerlo. Lo cual pone en cuestión no solo la efectividad de esta restricción: se pensaba que EEUU encabezaba la carrera en el desarrollo de la IA, y ahora también en este aspecto es disputado por China.


[1] https://euromedmonitor.org/en/article/5908/Israel-hits-Gaza-Strip-with-the-equivalent-of-two-nuclear-bombs

[2] https://www.972mag.com/lavender-ai-israeli-army-gaza/

[3] https://theconversation.com/gaza-war-artificial-intelligence-is-changing-the-speed-of-targeting-and-scale-of-civilian-harm-in-unprecedented-ways-228050

[4] https://www.972mag.com/microsoft-azure-openai-israeli-army-cloud/

[5] https://www.washingtonpost.com/technology/2024/12/29/ai-israel-war-gaza-idf/

Seremos directos: Te necesitamos para seguir creciendo.

Manteniendo independencia económica de cualquier empresa o gobierno, Izquierda Web se sustenta con el aporte de las y los trabajadores.
Sumate con un pequeño aporte mensual para que crezca una voz anticapitalista.

Me Quiero Suscribir

Sumate a la discusión dejando un comentario:

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí