La IA de Israel puede producir 100 objetivos de bombardeo por día en Gaza, ¿Es este el futuro de la guerra?

La semana pasada, surgieron informes de que las Fuerzas de Defensa de Israel (FDI) están utilizando un sistema de inteligencia artificial (IA) llamado Habsora (en hebreo «El Evangelio») para seleccionar objetivos en la guerra contra Hamás en Gaza. Según se informa, el sistema se ha utilizado para encontrar más objetivos para los bombardeos, vincular lugares con agentes de Hamás y estimar por adelantado el número probable de muertes de civiles.

¿Qué significa que sistemas de IA como este se utilicen en conflictos? Mi investigación sobre las implicaciones sociales, políticas y éticas del uso militar de sistemas remotos y autónomos muestra que la IA ya está alterando el carácter de la guerra.

Los militares utilizan sistemas remotos y autónomos como «multiplicadores de fuerza» para aumentar el impacto de sus tropas y proteger las vidas de sus soldados. Los sistemas de inteligencia artificial pueden hacer que los soldados sean más eficientes y probablemente mejoren la velocidad y la letalidad de la guerra, incluso cuando los humanos se vuelven menos visibles en el campo de batalla y en lugar de eso recopilan inteligencia y apuntan desde lejos.

Cuando los militares puedan matar a voluntad, con poco riesgo para sus propios soldados, ¿prevalecerá el pensamiento ético actual sobre la guerra? ¿O el uso cada vez mayor de la IA aumentará también la deshumanización de los adversarios y la desconexión entre las guerras y las sociedades en cuyos nombres se libran?

IA en la guerra
La IA está teniendo un impacto en todos los niveles de la guerra, desde el apoyo a «inteligencia, vigilancia y reconocimiento», como el sistema Habsora de las FDI, hasta los «sistemas de armas autónomos letales» que pueden elegir y atacar objetivos sin intervención humana.

Estos sistemas tienen el potencial de remodelar el carácter de la guerra, haciendo que sea más fácil entrar en un conflicto. Como sistemas complejos y distribuidos, también pueden hacer que sea más difícil señalar las propias intenciones (o interpretar las de un adversario) en el contexto de un conflicto en escalada.

Con este fin, la IA puede contribuir a la información errónea o desinformada, creando y amplificando malentendidos peligrosos en tiempos de guerra.

Los sistemas de inteligencia artificial pueden aumentar la tendencia humana a confiar en las sugerencias de las máquinas (esto lo destaca el sistema Habsora, que lleva el nombre de la infalible palabra de Dios), generando incertidumbre sobre hasta qué punto confiar en los sistemas autónomos. Los límites de un sistema de IA que interactúa con otras tecnologías y con personas pueden no estar claros, y puede que no haya manera de saber quién o qué es el «autor» de sus resultados, sin importar cuán objetivos y racionales puedan parecer.

Aprendizaje automático de alta velocidad
Quizás uno de los cambios más básicos e importantes que probablemente veamos impulsados por la IA sea un aumento en la velocidad de la guerra. Esto puede cambiar la forma en que entendemos la disuasión militar, que supone que los humanos son los principales actores y fuentes de inteligencia e interacción en la guerra.

Los militares y soldados enmarcan su toma de decisiones a través de lo que se llama el «bucle OODA» (para observar, orientar, decidir, actuar). Un bucle OODA más rápido puede ayudarte a superar a tu enemigo. El objetivo es evitar ralentizar las decisiones mediante una deliberación excesiva y, en cambio, igualar el ritmo acelerado de la guerra.

Por lo tanto, el uso de la IA está potencialmente justificado porque puede interpretar y sintetizar enormes cantidades de datos, procesarlos y generar resultados a velocidades que superan con creces la cognición humana.

Pero, ¿dónde está el espacio para la deliberación ética en un ciclo de OODA cada vez más rápido y centrado en datos que se desarrolla a una distancia segura de la batalla?

El software de selección de objetivos de Israel es un ejemplo de esta aceleración. Un exjefe de las FDI ha dicho que los analistas de inteligencia humana podrían producir 50 objetivos de bombardeo en Gaza cada año, pero el sistema Habsora puede producir 100 objetivos por día, junto con recomendaciones en tiempo real sobre cuáles atacar.

¿Cómo produce el sistema estos objetivos? Lo hace mediante el razonamiento probabilístico que ofrecen los algoritmos de aprendizaje automático.

Los algoritmos de aprendizaje automático aprenden a través de datos. Aprenden buscando patrones en enormes cantidades de datos, y su éxito depende de la calidad y cantidad de los datos. Hacen recomendaciones basadas en probabilidades.

Las probabilidades se basan en la coincidencia de patrones. Si una persona tiene suficientes similitudes con otras personas etiquetadas como combatiente enemigo, ella también puede ser etiquetada como combatiente.

El problema de apuntar a distancia mediante IA
Algunos afirman que el aprendizaje automático permite una mayor precisión a la hora de apuntar, lo que hace que sea más fácil evitar dañar a personas inocentes y utilizar una cantidad proporcional de fuerza. Sin embargo, la idea de apuntar con mayor precisión a los ataques aéreos no ha tenido éxito en el pasado, como lo demuestra el alto número de víctimas civiles declaradas y no declaradas de la guerra global contra el terrorismo.

Además, la diferencia entre un combatiente y un civil rara vez es evidente. Incluso los humanos frecuentemente no pueden distinguir quién es y quién no es un combatiente.

La tecnología no cambia esta verdad fundamental. A menudo, las categorías y conceptos sociales no son objetivos, sino controvertidos o específicos de un tiempo y un lugar. Pero la visión por computadora, junto con los algoritmos, es más efectiva en entornos predecibles donde los conceptos son objetivos, razonablemente estables e internamente consistentes.

¿La IA empeorará la guerra?
Vivimos en una época de guerras injustas y ocupaciones militares, violaciones atroces de las reglas de enfrentamiento y una incipiente carrera armamentista frente a la rivalidad entre Estados Unidos y China. En este contexto, la inclusión de la IA en la guerra puede añadir nuevas complejidades que exacerben el daño, en lugar de prevenirlo.

Los sistemas de inteligencia artificial facilitan que los actores de la guerra permanezcan en el anonimato y pueden hacer invisible la fuente de la violencia o las decisiones que conducen a ella. A su vez, es posible que veamos una desconexión cada vez mayor entre militares, soldados y civiles y las guerras que se libran en nombre de la nación a la que sirven.

Y a medida que la IA se vuelve más común en la guerra, los militares desarrollarán contramedidas para socavarla, creando un círculo de militarización creciente.

Mira también
Cerrar
Botón volver arriba