Castellano
Banca Armada

La carrera armamentista también pasa por la inteligencia artificial

Hasta hace poco, había una línea roja que las personas que investigan y desarrollan inteligencia artificial (IA) se negaban a cruzar: su uso ...

De Maurizio Bongioanni
©iStock

Hasta hace poco, había una línea roja que las personas que investigan y desarrollan inteligencia artificial (IA) se negaban a cruzar: su uso en la guerra. Pero el hecho es que, hoy en día, ningún ejército puede permitirse prescindir de ella. Cuando hablamos de ciberguerra nos referimos a ciberataques, drones, sistemas de inteligencia artificial, desinformación y deepfakes. Vivimos en una época en la cual la forma en que pensamos sobre la tecnología y su desarrollo está determinada por intereses geoestratégicos.

Si las armas funcionan sin la presencia del hombre

La idea de armas que “funcionan” con o sin la presencia de una persona no es nueva. Un ejemplo son las minas antipersonas: el principio es el mismo. Tanto es así que en Camboya, Angola y Bosnia, muchos años después del fin de sus respectivas guerras internas, siguen cobrándose víctimas. Por eso, la comunidad internacional decidió prohibirlas: en 1997, 164 Estados adoptaron la Convención de Ottawa contra las minas antipersonas. Esto, sin embargo, no impide que muchos gobiernos sigan, a día de hoy, utilizándolas sin ninguna regulación. Países como Estados Unidos, China, Rusia, India y Pakistán – donde la industria militar desempeña un papel decisivo en la economía – se niegan a firmar esta convención.

Más recientemente, se ha empezado a hablar de robots asesinos o LAWS (Lethal autonomous weapon system) para definir todas aquellas armas capaces de seleccionar y atacar un objetivo sin ayuda humana. Esto plantea una serie de cuestiones morales y éticas. Y no sólo eso: las LAWS también hacen más complicado establecer de quién es la responsabilidad. En una información recogida por el semanario francés Courrier International , Ulrike Franke, del Consejo Europeo para las Relaciones Internacionales, subraya cómo un sistema impulsado por inteligencia artificial puede aprender de sí mismo y tomar decisiones sin que los humanos entiendan la lógica. «Esto – explica – es particularmente peligroso en un contexto de guerra porque, si no podemos seguir las fases del proceso de toma de decisiones, resulta muy difícil detectar un acto de sabotaje ». En resumen, aunque pensemos que los humanos mantienen el control sobre la inteligencia artificial, ésta ya ha cambiado por completo el modo de hacer una guerra.

©iStock
Posibles consecuencias del uso de la inteligencia artificial en la guerra

En nuestra sociedad existen actualmente sensores capaces de detectar datos en todas partes: en la tierra, en el agua, en el aire, en el espacio y en el ciberespacio. La cantidad de datos recopilados por todas estas herramientas es tan grande que un ser humano no puede comprenderlos. De ahí surgió la necesidad de un procesamiento automático. En lugares donde hay combates, quienes controlan estos datos están en una posición ventajosa. Como resultado, el uso de la inteligencia artificial en la guerra ya no es una teoría. Lo vemos en Palestina , pero Ucrania lo utilizó primero.

Estados Unidos, China y otras superpotencias están trabajando para incorporar la inteligencia artificial a sus ejércitos . “La ventaja la tendrán los que ya no vean el mundo como los humanos”, escribieron en 2022 Thom Hawkins y Alexander Kott, oficiales de investigación del ejército estadounidense.

Por tanto, la distancia entre el operador humano y la IA se está reduciendo. Un temor que se alimenta desde muchos frentes, sobre todo por el hecho de que la inteligencia artificial ya se ha utilizado en el pasado durante conflictos, como señaló un informe del Consejo de Seguridad de la ONU sobre la segunda guerra civil en Libia. Fue en el año 2014 y, en ese caso, se trataba de sistemas de armas letales y completamente autónomos, pero aún lejos del uso de «robots con licencia para matar» , como los llama Carola Frediani en el libro  «Generación IA» . O enjambres enteros de robots de asalto autónomos equipados con fuerza letal tanto en tierra como en el aire. Los STM Kargu-2 utilizados en el Líbano eran drones capaces de identificar, atacar y destruir objetivos de naturaleza no definida, operando sin conexión alguna con operadores remotos.

La primera resolución de la ONU sobre armas autónomas

Desde entonces –y con mayor fuerza hoy– estas armas autónomas han planteado muchas preguntas éticas, jurídicas y de seguridad. Algunos sostienen que su implementación puede tener consecuencias graves, como errores de selección de objetivos y una escalada incontrolada de conflictos. Esto último incluye el riesgo de una carrera armamentista, la reducción del umbral de conflicto y la proliferación también hacia actores no estatales. «La inteligencia artificial como factor de poder militar, así como factor de riqueza económica, está en el centro de los objetivos de las principales potencias planetarias», escribe Carola Frediani. «Sin embargo, los intentos de comprender y regular el fenómeno siguen estando fragmentados y divididos en diferentes áreas».

Pero algo se está moviendo. El 1 de noviembre de 2023, la Primera Comisión de la Asamblea General de las Naciones Unidas, la dedicada al “desarme”, adoptó la primera Resolución de la historia sobre armas autónomas. Tras diez años de debates internacionales, bloqueados por una minoría de Estados militarizados, esa votación puede representar un paso fundamental y abrir la negociación de un nuevo tratado sobre la autonomía de las armas en este contexto de rápidos avances tecnológicos.

La resolución L56 fue presentada por Austria y apoyada por un grupo diverso de Estados. Un total de 164 votaron a favor, entre ellos España, en una votación donde también hubo cinco votos en contra y ocho abstenciones. La resolución destaca el problema y las implicaciones de las armas autónomas y establece que el orden del día provisional de la Asamblea General de Naciones Unidas del próximo año incluya un punto sobre LAWS. Abre un proceso que permitirá a todos los Estados exponer sus puntos de vista y establece una hoja de ruta clara para la adopción de un tratado.

Un paso hacia un tratado internacional vinculante sobre inteligencia artificial en la guerra

«La deshumanización y el asesinato de personas mediante tecnologías de inteligencia artificial en contextos militares es inaceptable y tendrá consecuencias terribles para la policía, el control fronterizo y la sociedad en general«, escriben los autores de la campaña Stop Killer Robots. En la campaña figuran la Red Italiana por la Paz y el Desarme, Amnistía Internacional, Human Rights Watch o el Comité Internacional de la Cruz Roja. Y también 26 premios Nobel y expertos de la sociedad civil. «Los 164 votos a favor de la resolución contra las armas autónomas en la Asamblea General de la ONU son un resultado rotundo«, subraya Francesco Vignarca, coordinador de las campañas de la Red Paz y Desarme .

«El impulso político es claro. Y ahora instamos a los Estados a dar un paso más para evitar la delegación de decisiones de vida o muerte a las máquinas«, indica Vignarca. «Es hora de un nuevo tratado internacional vinculante que garantice un control humano significativo sobre el uso de la fuerza. Esta votación es un claro paso en la dirección correcta«.


Artículo publicado originalmente en italiano en el portal homólogo valori.it

El mejor modo de mantenerte al día.

Desde la redacción de Valor Social a tu correo una selección de noticias de finanzas éticas y economía sostenible.