¿Opera ya la tecnología para que un robot asesino localice a alguien, le apunte y le dispare de forma completamente autónoma? Un grupo de expertos de las Naciones Unidas sostiene que sí, y que esta situación se dio ya en Libia en marzo de 2020. Así se lo comunicó al Consejo de Seguridad, según publicó la semana pasada la revista New Scientist. Este documento de gran calado (entre cuyos autores figura el español Luis Antonio de Albuquerque Bacardit) puede suponer un punto de inflexión, puesto que por primera vez en la historia se admite que una máquina ha atacado de forma autónoma a un ser humano, lo que desata profundos debates éticos y legales porque hace que se tambaleen las convenciones internacionales sobre lo que está permitido en una guerra.
Bajo el concepto coloquial de robots asesinos se esconde un campo amplísimo de armamento, explica el analista de defensa Jesús Manuel Pérez Triana: “Estos van desde drones que caben en la palma de una mano a los de gran tamaño a aparatos como el Global Hawk estadounidense, cuya envergadura es mayor que la de un Boeing 737 y que es capaz de cruzar sin problemas el Océano Atlántico, pasando por vehículos blindados autónomos como los desarrollados por la empresa estonia Milrem Robotics, que ya han sido probados en guerras como la de Malí”.
El uso de drones parcialmente autónomos (es decir, necesitan alguna intervención humana) se ha generalizado de tal manera que han sido más que frecuentes en las guerras en Libia y Siria, y se convirtieron “en la verdadera estrella” del conflicto del Alto Karabaj que enfrentó a Armenia y Azerbaiyán en 2020, explica Pérez Triana. En esta última contienda se dio a conocer al gran público la llamada munición merodeadora, que se basa en la idea de no emplear drones para lanzar armamento, sino que el propio dron esté dotado de una ojiva y cuando localiza un objetivo, un operario lo lance hacia él porque el propio dron es un arma. “El paso evidente es dotarle a ese dron kamikaze de un sistema de reconocimiento de objetivos que le permita operar autónomamente”.
Paso adelante
Para su funcionamiento, los drones autónomos van equipados con una cámara y un algoritmo de procesamiento de imágenes: de la misma manera que se puede enseñar a un programa a reconocer caras, se le enseña a reconocer objetivos. Y a atacarlos. Hasta ahora, las fuerzas aéreas debatían cuál sería el último avión con piloto. “Lo que estamos viendo”, explica Pérez Triana, “es que se ha lanzado una carrera tecnológica por fabricar masivamente drones kamikazes baratos que puedan lanzarse en enjambre gracias a la computación distribuida, en la que cada dron por sí mismo no tiene mucha potencia de procesamiento, pero que actuando en enjambre funciona como una mente colmena. Y si lo que se pretende es lanzar enjambres de drones de forma masiva no puedes depender de un humano sentado detrás de una consola”.
Este paso adelante ya se ha dado, según la carta que remitió el grupo de expertos al Consejo de Seguridad de la ONU. En ella, se relata un episodio acaecido en marzo de 2020 durante la guerra de Libia. Sobre el terreno, las fuerzas del general Jalifa Hafter, de 77 años, entonces hombre fuerte del este del país respaldado por Rusia. Sus tropas lanzaron un ataque sobre Trípoli y fueron repelidas por el ejército del primer ministro reconocido por la ONU, Fayez Sarraj. “Los convoyes logísticos y las fuerzas aliadas de Hafter en retirada fueron perseguidos posteriormente y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 [un dron militar de fabricación turca] y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición”. La carta no revela si hubo víctimas mortales. Fuentes de la industria en España, sin embargo, ven con escepticismo esta posibilidad. “Más allá de los avances de la técnica en ámbitos puramente académicos, y hasta donde sabemos, los programas industriales y las innovaciones llevadas a sistemas en uso en defensa se encuentran en un nivel de autonomía muy bajo”, aseguran.
Estos robots asesinos, explica Rahul Uttamchandani, abogado experto del gabinete de Legal Army, contravienen “todos los principios sobre los que se basan las guerras modernas”. Los básicos son el de humanidad (toda persona que no participa o que ha dejado de participar en las hostilidades debe ser tratada humanamente); necesidad (no usar armas o métodos que causen daños excesivos con respecto a la ventaja militar prevista); proporcionalidad (no se deben causar al adversario males desproporcionados en relación con el objetivo del conflicto armado); y distinción (hay que diferenciar en todo momento entre la población y los combatientes).
El debate de la legislación
Las armas autónomas (conocidas como limited automated weapons, o LAWS) o las automatizadas (o parcialmente autónomas) ya existen hace tiempo, recuerda Joaquín Rodríguez Álvarez, doctor en Derecho Público Internacional, profesor en la UAB y responsable en España de la campaña Stop Killing Robots (detener los robots asesinos). Hasta ahora, asegura, su uso se había limitado a la defensa. El ejemplo más reciente de ello es la Cúpula de Hierro, el sistema de defensa de Israel que, según su ejército, logró interceptar el 90% de los misiles lanzados por las milicias de Hamás en la contienda desencadenada el mes pasado.
Existe en la actualidad una considerable actividad internacional que trata de lograr su prohibición. Las posibles negociaciones, sin embargo, están en punto muerto. Tanto Estados Unidos como el Reino Unido y los países de la OTAN sostienen que el Derecho Internacional Humanitario (DIH) existente ya “proporciona un marco integral para controlar el uso de la autonomía en los sistemas armados”, según manifestó en 2019 el representante norteamericano ante el Convenio sobre Ciertas Armas Convencionales (CCW). El razonamiento legal, sin embargo, está lleno de recovecos que dificultan cualquier avance, según explica Vicente Garrido Rebolledo, profesor de la Universidad Rey Juan Carlos y miembro entre 2014 y 2017 del Consejo Asesor de la Oficina de Asuntos de Desarme de las Naciones Unidas para los secretarios generales de Ban Ki-moon y Antonio Gutérres.
Las convenciones de Ginebra constituyen la columna vertebral de esta legislación humanitaria. Ni EE UU ni Turquía (entre otros) han firmado sin embargo parte de los protocolos, sobre todo los que se refieren a los conflictos internos. Esta circunstancia dejaría ya de por sí sin efectos el DIH para casos como el libio. Por otra parte, para que se respeten sus cuatro principios básicos (humanidad, necesidad, proporcionalidad y distinción) resulta necesario atribuir las acciones de guerra a alguien. “En el caso de las armas autónomas, ¿cómo le preguntas a una máquina que explique su comportamiento? A una máquina no cabe atribuirle responsabilidad. Y si hemos llegado a la automatización total, algo que pongo en duda, habremos pasado a una etapa superior, para lo cual se hace necesario una regulación específica”, explica Garrido Rebolledo. Otra posibilidad es pactar una moratoria hasta que se llegue a un acuerdo. “Si se alcanza esa medida, los perjudicados serían los Estados y las industrias, por lo cual la consigna es que no se hable del asunto”. Es la posición que han adoptado los países productores, con los que se alinea España.
“Donde no hay discusión alguna es en que asistimos apenas al prólogo de lo que puede llegar a ser”, vaticina Pérez Triana. “Solo estamos al comienzo de las pesadillas tipo Terminator, que se plasmarán cuando se desarrolle aún más la capacidad de la inteligencia artificial”.
Fuente:
Vega, G. (2021, 5 junio). âRobots asesinosâ: cuando el que decide matar es un algoritmo. Recuperado 7 de junio de 2021, de https://elpais.com/tecnologia/2021-06-05/robots-asesinos-cuando-el-que-decide-matar-es-un-algoritmo.html