Protección Data

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Armas autónomas letales

La guerra en Ucrania es una realidad que no parece tener fin, pero no es, desgraciadamente, el único conflicto bélico que existe en el mundo.

En cualquier guerra la población civil suele ser la que sufre las peores consecuencias. Las bombas, los morteros, los misiles y ahora los drones destruyen hogares enteros, hospitales, colegios, mercados… hundiendo en la pobreza a quienes sobreviven.

Una de las armas más avanzadas y letales empleadas en Ucrania, por ambos bandos, son los drones, muchos «kamikazes», es decir, de un solo uso. Los hay simples, como el que les muestro en la imagen siguiente:

Los de largo alcance son de mayor tamaño y más complejos. Además, requieren de una plataforma de lanzamiento.

El desarrollo de los sistemas no tripulados ha sido liderado por los Estados Unidos desde el final de la Guerra Fría. La Segunda Guerra del Golfo en el año 1991 fue un gran banco de pruebas. Más tarde, los emplearon en Afganistán contra los talibanes.

Según datos publicados por la Organización de las Naciones Unidas (ONU) en el año 2020 al menos 102 países cuentan con un inventario activo de drones militares y 40 o más países poseen o están en proceso de adquirir drones armados. Del total, unos 35 países tendrían el mayor arsenal de drones y también el más letal. Actualmente, los principales fabricantes son Estados Unidos, Israel, China, Irán, Turquía, Corea del Sur, Reino Unido y Rusia.

La Agencia Europea de Defensa, por su parte, se halla inmersa en varios proyectos de investigación en el campo de los sistemas autónomos:

  • EURODRONE (European Medium Altitude Long Endurance Remotely Piloted Aircraft Systems) para el desarrollo de aeronaves pilotadas a distancia de larga resistencia y altitud media.
  • UMS (Unmanned Maritime Systems) para la eliminación de la intervención humana en la guerra de minas navales.
  • Hy-MUP (Hybrid Manned-Unmanned Platooning) para la integración de sistemas no tripulados en vehículos terrestres.

El elemento diferenciador de los «sistemas armamentísticos autónomos letales», esto es, de aquellas armas programables que, una vez activadas o lanzadas, no necesitan de la intervención humana para seleccionar y alcanzar su objetivo, es la eliminación del control humano. Se excluyen de tal concepto los sistemas controlados a distancia y los teledirigidos.

La tecnología ha permitido crear armas cada vez más precisas, que –en teoría– ayudan a minimizar los daños colaterales, pero ¿qué pasa cuando un arma autónoma comete un error, por ejemplo, alcanza objetivos civiles con decenas de niños muertos? ¿quién será el responsable? ¿el que fabricó el arma? ¿el qué la programó? ¿el qué la compró? ¿el que la activó? ¿Todos? ¿Ninguno, pues fue un error ajeno a la voluntad humana?.

Derecho Internacional Humanitario

En el Derecho Internacional Humanitario existen protocolos que restringen o directamente prohíben el uso de determinadas armas como nucleares, químicas, bombas de racimo, minas antipersona…, pero no existe ningún protocolo universal que regule el desarrollo, la producción y la utilización de los sistemas armamentísticos autónomos letales, capaces de realizar ataques sin un control humano significativo.

La Unión Europea se muestra favorable a prohibir las armas complemente autónomas. El Parlamento Europeo aprobó, el 12 de septiembre de 2018, una resolución sobre los sistemas armamentísticos autónomos, que dejo enlazada aquí, en la que insta al Alto representante de la Unión para Asuntos Exteriores y Política de Seguridad, a los Estados miembros y al Consejo a que entablen negociaciones internacionales sobre un instrumento jurídicamente vinculante que imponga la prohibición total de los sistemas armamentísticos autónomos letales.

En la Primera Edición del Foro de París sobre la Paz, celebrada los días 11 a 13 de noviembre de 2018, coincidiendo con el centenario del fin de la Primera Guerra Mundial, el Secretario General de la ONU, António Guterres, dijo: «Imagínense las consecuencias de un sistema autónomo que podría, por sí solo, apuntar y atacar a los seres humanos. Hago un llamamiento a los países para que prohíban estas armas, que son políticamente inaceptables y moralmente repugnantes».

Siendo realistas, prohibir este tipo de armas es una quimera difícilmente alcanzable. Para tratar, al menos, de contener sus efectos, asociaciones humanitarias, como Stop Killer Robots, abogan por limitar sus objetivos, a los exclusivamente militares, así como su autonomía, alcance y fuerza letal, si bien la principal exigencia es que se garantice que haya una supervisión humana efectiva tras ellas para desactivarlas o desviar su rumbo en caso necesario.

Conclusiones

Un algoritmo jamás debería decidir sobre la vida de las personas. Un dron puede fallar a cuenta de un código escrito incorrectamente o de un ciberataque perpetrado por un país enemigo o un agente no estatal.

Estados Unidos, Rusia, Australia e Israel quieren que las drones dotados con inteligencia artificial puedan decidir, de forma autónoma, los objetivos, entre ellos, están los seres humanos (fuente).

Que la inteligencia artificial pueda llegar a tomar el control de un arma letal y que, además, pueda aprender del entorno es un riesgo inaceptable. 

El tema militar no es un tema que domine, ni mucho menos, así que he tenido que leer bastante para documentarme un poco. Entre las lecturas realizadas, permítanme recomendarles el artículo de José Luis Calvo Pérez, titulado «Debate internacional en torno a los sistemas de armas autónomos letales. Consideraciones tecnológicas, jurídicas y éticas» publicado en la Revista General de Marina de abril de 2020, que dejo enlazado aquí.

Ciberguerra

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).