Por el Teniente General David A. Deptula, USAF (Ret.)
Artículo publicado cortesía de The Mitchell Forum
El rápido cambio tecnológico está dando lugar al desarrollo de sistemas de armas autónomas cada vez más capaces. A medida que se vuelven más sofisticados, aumentan los llamamientos para que se desarrollen restricciones a su uso, incluida su prohibición total. Al igual que el llamado a restringir la venta y el uso de aviones no tripulados, la mayoría de las restricciones propuestas son bien intencionadas, pero a menudo están mal informadas, con una alta probabilidad de degradar la seguridad nacional y poner vidas adicionales en riesgo. Empleadas por operadores experimentados y versados en las leyes de los conflictos armados, las armas autónomas pueden promover los objetivos de quienes prohibirían su uso.
Este ensayo adopta una perspectiva operacional para examinar el papel que pueden desempeñar los sistemas de armas autónomos en cumplimiento de las leyes de los conflictos armados. Con un diseño responsable y la incorporación de las medidas de control aplicables, las armas autónomas podrán no solo cumplir con el uso ético de la fuerza, sino también mejorarlo. Este ensayo sostiene que los esfuerzos de la comunidad internacional por utilizar medios legales y/o instituciones internacionales para regular en exceso o incluso prohibir las armas autónomas letales son contraproducentes. En él se examinan y describen los resultados finales del uso de armas autónomas para mejorar la aplicación tanto del derecho internacional como de los valores éticos humanos.
Definiciones
Antes de abordar las cuestiones clave relativas al uso de sistemas de armas autónomos, conviene definirlos. En este sentido, el 25 de enero de 2023 se emitió la actualización más reciente de la Directiva 3000.09 oficial del Departamento de Defensa de los Estados Unidos (DOD), "Autonomía en los Sistemas de Armas". Define un "sistema de armas autónomo" como "un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin más intervención de un operador. Esto incluye, pero no se limita a, sistemas de armas autónomos supervisados por el operador que están diseñados para permitir a los operadores anular la operación del sistema de armas, pero pueden seleccionar y atacar objetivos sin más intervención del operador después de la activación".[1]
La directiva también establece que "los sistemas de armas autónomos y semiautónomos se diseñarán para permitir que los comandantes y operadores ejerzan niveles apropiados de juicio humano sobre el uso de la fuerza"[2]. Además, estipula que "las personas que autoricen el uso, dirijan el uso u operen sistemas de armas autónomos y semiautónomos deben hacerlo con el debido cuidado y de conformidad con el derecho de la guerra, los tratados aplicables, las reglas de seguridad de los sistemas de armas y las reglas de enfrentamiento (ROE) aplicables"[3].
La directiva proporciona políticas, dirección y directrices para el diseño, desarrollo y uso de sistemas de armas autónomos o semiautónomos. También especifica las responsabilidades de la Oficina del Secretario de Defensa, los departamentos militares, la Oficina del Presidente del Estado Mayor Conjunto y el Estado Mayor Conjunto, los comandos de combate, la Oficina del Inspector General del Departamento de Defensa, las agencias de defensa, las Actividades de Campo del Departamento de Defensa y todas las demás entidades organizativas dentro del Departamento de Defensa. En consecuencia, ya existen "normas y medidas apropiadas, como principios, buenas prácticas, limitaciones y restricciones" sobre las armas autónomas solicitadas por la 77ª Asamblea General de las Naciones Unidas. Hasta cierto punto, eso debería calmar las "serias preocupaciones desde perspectivas humanitarias, jurídicas, de seguridad, tecnológicas y éticas" con respecto a la aplicación de la autonomía en los sistemas de armas[4].
Aquellos preocupados por el uso de tecnologías autónomas en combate deben considerar que el ejército de EE. UU. fue el primero en el mundo en publicar principios éticos para la inteligencia artificial (IA), que establecen que debe ser "responsable", "ética", "rastreable", "confiable" y "gobernable"[5]. El Departamento de Defensa continuó construyendo sobre esa base con la publicación de una estrategia de IA responsable en junio de 2022 que establece un camino para incorporar la IA en nuevos sistemas de armas[6]. Estos son primeros pasos prometedores para el desarrollo, control y uso de sistemas de armas autónomos de acuerdo con el cuerpo ya establecido de derecho internacional y convenciones que regulan la conducción de la guerra.
Usos de la autonomía en armas
El uso de sistemas autónomos en la guerra ya está muy extendido. Los casos se remontan a las primeras décadas del siglo XX, con torpedos lanzados desde barcos que surgieron en la Primera Guerra Mundial y municiones guiadas y aviones no tripulados que entraron en uso durante la Segunda Guerra Mundial. En la actualidad, miles de misiles aire-aire utilizan guías autónomas para dirigirse a sus objetivos. Algunos ejemplos son el misil aire-aire avanzado de medio alcance AIM-120 (AMRAAM) de Estados Unidos, el AA-12 Adder ruso, los PL-12 y PL-15 chinos, y muchos otros. El Javelin, el misil antitanque utilizado con tanto éxito por Ucrania, ha negado esencialmente la efectividad de los tanques rusos. El misil Javelin es un arma de "disparar y olvidar" que utiliza la guía infrarroja automatizada. Decenas de miles de armas tierra-aire operadas por sistemas de control autónomos son utilizadas por múltiples naciones por todo el mundo. Los vehículos submarinos no tripulados son otra variante de un sistema de armas que depende en gran medida de la autonomía para cumplir su propósito.
Otros sistemas con mayores grados de autonomía incluyen municiones merodeadoras que vienen en muchas variedades: el Harpy y el Harop israelíes, el CH-901 chino, el Kalashnikov ZALA Aero KUB-BLA ruso, el Shahed-136 iraní y las variantes Switchblade estadounidenses, así como muchos otros. Los torpedos como el Spearfish Mod-1 de la OTAN tienen un modo automatizado. Los sistemas de protección automatizados, como el sistema de armas de proximidad Phalanx de EE. UU. guiado por radar, se han utilizado durante décadas para defender automáticamente los buques. El sistema de defensa aérea Iron Dome tiene un modo defensivo completamente autónomo. Algunos de ellos son sistemas de armas autónomas (AWS) por definición y han demostrado la viabilidad, versatilidad, eficacia y precisión de un sistema de armas autónomo.
Es importante reconocer que la autonomía no existe por sí misma. Al igual que con cualquier tipo de armamento, las armas autónomas son herramientas diseñadas para potenciar estrategias, conceptos operativos y tácticas para derrotar a los adversarios. Estados Unidos está recurriendo cada vez más a la autonomía porque la tecnología es útil para hacer frente a las amenazas que plantean los competidores similares. Se trata de graves circunstancias de seguridad nacional. Perder podría plantear problemas existenciales para Estados Unidos y sus aliados. Dado que el crecimiento de la capacidad militar y la capacidad de las amenazas entre pares en algunas áreas son iguales o mayores que su crecimiento en los Estados Unidos, el Departamento de Defensa cuenta con ganar futuros conflictos logrando una ventaja en la asimilación de información y tomando decisiones a un ritmo superior al de cualquier adversario. Ese es el objetivo del esfuerzo del Departamento de Defensa para desarrollar un comando y control conjunto de todos los dominios, y está en el corazón del concepto de guerra conjunta de las fuerzas armadas de Estados Unidos. En otras palabras, Estados Unidos, junto con sus aliados y socios, cuenta con que su personal militar colectivo sea mejor que sus adversarios para encontrar, fijar, rastrear, seleccionar, involucrar y evaluar resultados, y manejar la niebla y la fricción de la guerra.
Fundamental para este concepto de guerra conjunta es la automatización de las tareas necesarias para hacer frente al procesamiento de las masas de datos que hoy acumulan las agencias de defensa e inteligencia, y que están creciendo exponencialmente. Para capitalizar todos estos datos en bruto, los militares deben tener la capacidad de separar la señal del ruido, creando inteligencia procesable que les permita aplicar la fuerza de la manera más efectiva posible. Las armas autónomas serán una parte integral de la solución a este problema de los datos masivos, ya que tienen el potencial de mejorar drásticamente la capacidad de clasificarlos y lograr una ventaja decisiva sobre los posibles adversarios. Los adversarios ya están muy avanzados en estas aplicaciones. Es crucial reconocer que se está llevando a cabo una carrera por la superioridad en la toma de decisiones, y que las tecnologías autónomas son una parte clave para obtener una ventaja competitiva. Es por eso que Estados Unidos y sus aliados y socios no pueden descartar unilateralmente esta tecnología. La alternativa es sufrir una derrota a manos de naciones con valores e intereses radicalmente diferentes. Si bien el ejército de EE.UU. ha señalado hasta ahora que está comprometido con el diseño, desarrollo y empleo de armas autónomas de conformidad con el derecho internacional humanitario, el verdadero desafío es convencer a todas las naciones y organizaciones de que también cumplan con estas leyes. La evidencia actual demuestra que Rusia no está dispuesta a seguir el derecho internacional humanitario[7]. China tampoco[8].
EE. UU. y sus aliados y socios no deben aceptar prohibiciones o restricciones excesivas sobre los AWS. Teniendo en cuenta los avances que las principales potencias rivales, incluidas Rusia y China, han hecho con esta tecnología, "optar por no participar" no es una propuesta realista. Eso equivaldría a que una nación dijera que no va a perseguir aviones de combate modernos, barcos armados o vehículos blindados. Esa no es una proposición sostenible. Tampoco lo es rendirse a los AWS en la era de la información, independientemente del progreso del adversario. Sin duda, existen riesgos reales de que el desarrollo de AWS se convierta en una carrera armamentista o conduzca a la inestabilidad de la crisis. Sin embargo, es poco probable que los tratados y las instituciones internacionales mitiguen los impactos desestabilizadores de los AWS.
La aplicación unilateral de los tratados de control de armamentos en nuestro propio país, mientras nuestros adversarios desarrollan armas en sus propios términos, es contraproducente y está desconectada de una realidad en la que la derrota tiene consecuencias muy reales y gravemente adversas.
El desarrollo, la implementación y el empleo de AWS ya es una realidad y continuará tanto si Estados Unidos y sus aliados y socios participan como si no. La pregunta es si Estados Unidos se va a quedar atrás, erosionando aún más sus capacidades de disuasión e incluso invitando a la agresión. Permitir que China o Rusia avancen más allá de las naciones no beligerantes podría ser muy desestabilizador. Los adversarios podrían percibir que, con una ventaja significativa de AWS, están preparados para ganar con una ofensiva rápida.
Hay medidas que se pueden tomar para fomentar la moderación en el uso de AWS. Más eficaz que las prohibiciones internacionales o las convenciones limitativas es crear un elemento disuasorio creíble. Las naciones pueden manejar eficazmente la dinámica de escalada mediante la creación de las fuerzas que necesitan para disuadir a un adversario de proseguir la agresión. Este es un enfoque conocido y probado para la defensa inteligente: considere la efectividad de la tríada nuclear. Las naciones también pueden manejar la dinámica de escalada a través de medidas de fomento de la confianza. Estas podrían incluir prácticas prudentes de prueba y evaluación diseñadas para transmitir simultáneamente el papel de los AWS en el refuerzo de la capacidad de disuasión y combate bélico, y el compromiso de desarrollar un marco ético para los AWS. De hecho, si la IA que respalda a los AWS se desarrolla de una manera que defienda los valores éticos, los AWS tienen el potencial de convertirse en el medio más preciso para emplear la fuerza de una manera que reduzca los daños colaterales y minimice las bajas debido a la naturaleza automatizada de su ciclo de toma de decisiones. Considere los beneficios que ofrecen los sensores de alta fidelidad, el seguimiento en tiempo real y las municiones de ataque de precisión. La IA mejora radicalmente la capacidad de asegurar efectos precisos en el espacio de batalla mientras trabaja para minimizar los daños colaterales no deseados. Comparemos eso con el daño causado por los anticuados bombardeos de artillería no guiados. Los AWS podrían presagiar aún más progreso en esta área.
Ventajas operativas de los sistemas de armas autónomos
La tecnología de armas autónomas puede ofrecer ventajas operacionales clave que reducen el daño a la población civil y respaldan los principios de proporcionalidad y distinción establecidos por las leyes de los conflictos armados[9]. Las ventajas de las tecnologías autónomas en general, y de los AWS en particular, son muchas y se pueden resumir en tres áreas principales: (1) aprovechar la creciente precisión de las municiones guiadas de precisión, (2) reducir la posibilidad de identificación errónea de objetivos, y (3) mejorar las capacidades de disuasión y combate.
Mayor precisión de segmentación
La exactitud de las armas guiadas de precisión solo mejorará gracias a los sistemas automatizados y al aumento de la potencia de procesamiento. Este es un concepto simple pero importante. Al comprender mejor un objetivo y las circunstancias alrededor, la potencia de fuego cinética se puede entregar con mayor precisión en un momento y lugar que minimice el daño involuntario. Esta mayor precisión, a su vez, permite un mayor uso de explosivos de bajo poder, o la eliminación de explosivos por completo (por ejemplo, a través de armas inertes), lo que presenta una oportunidad significativa para reducir los daños colaterales, las víctimas civiles y/o las consecuencias no deseadas. Como comandante de 1998 a 1999 de la Operación Northern Watch, la fuerza de tarea combinada encargada de hacer cumplir la zona de exclusión aérea/aérea al norte del paralelo 36 en Irak, dirigí el uso de bombas inertes para permitir el ataque de los sistemas de armas tierra-aire enemigos que el ejército iraquí localizó intencionalmente cerca de objetivos que el enemigo sabía que estaban protegidos por el derecho de los conflictos armados y que sabía que las fuerzas de la coalición de la Guardia del Norte respetarían[10]. El uso de municiones inertes permitió la eliminación de amenazas enemigas que no podrían haberse logrado legalmente con armas explosivas. Los AWS y la IA mejorarán estas capacidades.
Reducción de la posibilidad de identificación errónea de objetivos
El reconocimiento automático de objetivos implica el uso de sensores, capacidad de procesamiento de datos y algoritmos para evaluar y determinar objetivos de interés de acuerdo con la forma en que se definen esos objetivos. Como resultado, puede reducir significativamente la posibilidad de identificación errónea de objetivos debido a errores humanos; mejorar el conocimiento de la situación de los civiles en el espacio de batalla; y aumentar la velocidad de identificación, elección e imposición de efectos de objetivos. Todo esto mejora los resultados amistosos al lograr los efectos militares deseados más rápidamente que un enemigo.
Los seres humanos escriben los algoritmos que permiten el reconocimiento automático de objetivos y los AWS, y parece posible escribir esos algoritmos de una manera que se ocupe de las cuestiones éticas a la velocidad del conflicto y de acuerdo con el derecho internacional humanitario. Con un diseño adecuado, la inteligencia artificial podría recomendar sistemáticamente decisiones específicas que reflejen los valores y la ética de acuerdo con las leyes de los conflictos armados, sin experimentar una influencia indebida de factores que sesguen la toma de decisiones humanas, como la presión del tiempo, la falta de sueño, el estrés psicológico y/o el hambre[11]. La autonomía de los sistemas de armas también puede permitir todos los elementos de la cadena de muerte: el hallazgo, fijación del blanco, seguimiento, apuntar, disparar y evaluación, que se lograrán en tiempos significativamente más cortos que si dependieran de los mismos pasos realizados en su totalidad por humanos[12]. El lado que puede cerrar más rápidamente la cadena de muerte tiene una ventaja significativa porque puede cumplir los objetivos de la misión más rápidamente, acelerando así la conclusión del conflicto y reduciendo el combate y las bajas civiles en ambos lados.
En relación con esto, si se emplea el reconocimiento automático de objetivos en aeronaves no tripuladas, que suelen tener tiempos de merodeo más largos que sus homólogos tripulados, la probabilidad de identificación errónea puede reducirse aún más. Los largos tiempos de merodeo permiten aún más tiempo para observar, evaluar y actuar muy rápidamente, o para tomarse todo el tiempo necesario para estar seguro de una acción particular antes de que se aplique la fuerza letal.
Capacidad mejorada de disuasión y combate
El derecho internacional, las convenciones, las restricciones y limitaciones sobre los tipos y el uso de los sistemas de armas están resultando ineficaces en los conflictos modernos. Los principales combatientes a menudo hacen caso omiso de estas restricciones y de los acuerdos conexos. Además del comportamiento del ejército ruso en su invasión de Ucrania, y de las numerosas violaciones del derecho internacional y de los tratados anteriores acordados por Rusia, Hamás ignoró por completo el derecho internacional y las convenciones de la guerra al cometer intencionadamente atrocidades contra hombres, mujeres y niños inocentes en su invasión de Israel en octubre de 2023[13].
Las armas autónomas tienen el potencial de disuadir este tipo de comportamientos atroces. La Fuerza Aérea de los EE. UU. está construyendo una nueva generación de aviones no tripulados, conocidos como aviones de combate colaborativos, para operar en conjunto con cazas, bombarderos y otros sistemas de armas tripulados. Estos nuevos sistemas no tripulados emplearán una variedad de medios autónomos para controlar, evaluar y emplear armas, compensando la precipitada disminución en la capacidad del inventario de aviones de combate en el ejército de los EE. UU. durante los últimos treinta años. Debido a su menor costo en relación con los aviones tripulados, pueden producirse en cantidades que puedan compensar los déficits en la estructura de la fuerza de aviones de combate de los EE. UU., restaurando la disuasión convencional necesaria para evitar un conflicto regional importante y, por lo tanto, reducir drásticamente el potencial de pérdida masiva de vidas. Si la disuasión falla, entonces estos sistemas autónomos aumentan la probabilidad de ganar sobre perder y de reducir las bajas durante el conflicto al no exponer a los humanos al enfrentamiento del adversario[14]. En conjunto, los elementos identificados anteriormente equivalen a que los AWS poseen el potencial de una aplicación más ética de la fuerza que cualquier otro medio.
Conclusión
El uso de la autonomía evolucionará e implicará una mayor independencia de las máquinas del control humano. Los AWS pueden tomar decisiones de vida o muerte sin intervención humana, lo que genera preocupaciones legítimas sobre la moralidad de delegar dichas decisiones a las máquinas. Eso no debe confundirse con las máquinas de combate totalmente independientes tipo Terminator. Los niveles de supervisión y control humano apropiados pueden diseñarse deliberadamente en estos sistemas. Es posible crear marcos éticos en los AWS que se adhieran a los principios del derecho internacional humanitario. Además, el uso de la IA puede minimizar las bajas civiles al mejorar el reconocimiento de objetivos, la toma de decisiones y la precisión general. Los AWS funcionan sin la emoción, la rabia, la venganza, el odio y otras condiciones graves que afectan las acciones de los seres humanos "malos actores" que matan intencionalmente a personas inocentes e ignoran por completo el derecho internacional y las convenciones de la guerra.
Si bien algunos pueden argumentar que los algoritmos que controlan los AWS pueden tener sesgos humanos que se pueden replicar a través de la iteración, se pueden implementar medios para mitigar las posibles consecuencias negativas. Se pueden desarrollar algoritmos que sean menos susceptibles a los sesgos incorporando la equidad y la responsabilidad como componentes clave. Al analizar y comprender las fuentes de los sesgos, se pueden emplear técnicas y metodologías apropiadas para minimizar su impacto. Al reconocer los posibles sesgos en el desarrollo de algoritmos y trabajar activamente para abordarlos, es posible crear AWS que sean más éticos y menos propensos a perpetuar sesgos dañinos.
El establecimiento de directrices y estándares internacionales para los AWS puede promover la adopción de prácticas recomendadas y principios éticos compartidos en diferentes países. Este enfoque colaborativo puede conducir a sistemas de armas autónomos más robustos y libres de sesgos. Sin embargo, los AWS no deben estar restringidos por el derecho internacional o las convenciones creadas ostensiblemente para prohibir o restringir armas que puedan "considerarse excesivamente dañinas o que tengan efectos indiscriminados"[15]. Por definición, los AWS "pueden seleccionar objetivos" y, por lo tanto, no son indiscriminados en los efectos que producen. Guiados por la incorporación de los principios del derecho internacional humanitario descritos anteriormente, los beneficios potenciales de los AWS pueden superar sus posibles perjuicios.
Como se resumió en la Primera Sesión del Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomas Letales celebrada en Ginebra, Suiza, el 25 de marzo de 2019:
La práctica actual de los Estados ofrece muchos ejemplos de formas en que las nuevas tecnologías autónomas podrían utilizarse para reducir los riesgos para los civiles en los conflictos armados: 1) incorporando mecanismos autónomos de autodestrucción, autodesactivación o autoneutralización; 2) aumentar la concienciación sobre la población civil y los bienes de carácter civil en el campo de batalla; 3) mejorar las evaluaciones de los efectos probables de las operaciones militares; (4) mejorar la identificación, el seguimiento, la selección y el compromiso de los objetivos; y (5) reducir la necesidad de disparos inmediatos en defensa propia[16].
Lo que estos enfoques, y los citados anteriormente, sugieren es que las tecnologías autónomas pueden aumentar nuestra comprensión del espacio de batalla y nuestra capacidad para reaccionar ante el comportamiento dinámico del adversario de una manera que sea coherente con las leyes de los conflictos armados y el derecho internacional humanitario. Al igual que otros sistemas de armas, los AWS pueden y deben estar sujetos y controlados por el extenso cuerpo de derecho internacional relativo a los conflictos armados y las convenciones asociadas. Sin embargo, contrariamente a algunas caracterizaciones relativas al desarrollo y uso de sistemas de armas autónomas letales, tienen un gran potencial para reducir la pérdida de vidas en los conflictos y pueden reducir significativamente los caprichos de la mala conducta y la malversación humanas en el espacio de batalla durante los conflictos.
Podemos y debemos reducir al mínimo las bajas no intencionadas. Casi nadie quiere matar a civiles, excepto los "malos actores" (véase el ataque intencional de Rusia y Hamas contra civiles en Ucrania e Israel, respectivamente). Eso pone en tela de juicio la moralidad de cualquier política que restrinja el uso de las fuerzas armadas, y de los AWS en particular, para evitar la posibilidad de daños colaterales y al mismo tiempo permitir la certeza de los crímenes de lesa humanidad de los adversarios. Si bien las bajas no intencionales de la guerra deben evitarse siguiendo las leyes de los conflictos armados, es probable que las bajas asociadas con los AWS palidezcan en comparación con los actos salvajes de los soldados y/o terroristas que no cumplen con las leyes de los conflictos armados y que optan por ignorar el derecho internacional humanitario.
El personal militar de los EE. UU. y sus aliados debe hacer todo lo posible para prevenir víctimas civiles y recibir una amplia capacitación sobre cómo hacerlo.[17] Las naciones pueden salvar más vidas civiles si desarrollan y emplean los AWS de manera responsable, y descubren formas de disuadir eficazmente la guerra o, una vez involucrada, ganarla lo más rápido posible para poner fin a las horrendas consecuencias de un conflicto prolongado.
[1] Departamento de Defensa (DOD), "Autonomía en los sistemas de armas", Directiva 3000.09 del DOD, 25 de enero de 2023, p. 21. https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf
[4] Asamblea General de las Naciones Unidas, "Primera Comisión de Declaración Conjunta sobre los Sistemas de Armas Autónomas Letales, 77º Debate Temático de la Asamblea General de las Naciones Unidas: Armas Convencionales", 21 de octubre de 2022. https://estatements.unmeetings.org/estatements/11.0010/20221021/A1jJ8bNfWGlL/KLw9WYcSnnAm_en.pdf
[5] Subsecretario de Defensa, "Memorándum para los Comandantes Superiores de Liderazgo del Pentágono de la Agencia de Defensa de los Comandos de Combate y los Directores de Actividades de Campo del Departamento de Defensa", 26 de mayo de 2021, p. 1. https://media.defense.gov/2021/May/27/2002730593/-1/-1/0/IMPLEMENTING-RESPONSIBLE-ARTIFICIAL-INTELLIGENCE-IN-THE-DEPARTMENT-OF-DEFENSE.PDF
[6] Consejo de Trabajo de IA Responsable del Departamento de Defensa, Departamento de Defensa de EE. UU. Estrategia e implementación de inteligencia artificial responsable (Washington, DC: DOD, junio de 2022). https://media.defense.gov/2022/Jun/22/2003022604/-1/-1/0/Department-of-Defense-Responsible-Artificial-Intelligence-Strategy-and-Implementation-Pathway.PDF
[7] Lise Morjé Howard, "Una mirada a las leyes de la guerra y cómo Rusia las está violando", análisis del Instituto de Paz de los Estados Unidos, 29 de septiembre de 2022. https://www.usip.org/publications/2022/09/look-laws-war-and-how-russia-violating-them
[8] "China responsable de 'graves violaciones de los derechos humanos' en la provincia de Xinjiang: Informe de derechos humanos de la ONU", Noticias de la ONU, 31 de agosto de 2022. https://news.un.org/en/story/2022/08/1125932
[9] Departamento del Ejército de los EE. UU. y del Cuerpo de Marines de los EE. UU., "Antecedentes generales y principios básicos del derecho de los conflictos armados" https://biotech.law.lsu.edu/blog/Basics-of-Law-of-Armed-Conflict.pdf, en The Commander's Handbook on the Law of Land Warfare, FM 6-27/MCTP 11-10C (agosto de 2019). https://armypubs.army.mil/epubs/DR_pubs/DR_a/pdf/web/ARN19354_FM%206-27%20_C1_FINAL_WEB_v2.pdf
[10] Es interesante destacar que si dichos bienes se utilizan con fines militares, pierden su protección contra los ataques.
[11] Ray Reeves, "The Ethical Upside of Artificial Intelligence", War on the Rocks, 20 de enero de 2020. https://warontherocks.com/2020/01/the-ethical-upside-to-artificial-intelligence/
[12] Fuerza Aérea de los EE. UU., "Targeting, Air Force Doctrine Publication 3-60", 12 de noviembre de 2021. https://www.doctrine.af.mil/Portals/61/documents/AFDP_3-60/3-60-AFDP-TARGETING.pdf
[13] Emery Winter, "Sí, Rusia prometió en 1994 que nunca atacaría a Ucrania si renunciaba a sus armas nucleares", VERIFY, actualizado el 10 de marzo de 2022. https://www.verifythis.com/article/news/verify/global-conflicts/ukraine-agreed-to-give-up-nukes-in-exchange-for-safety-from-russia-invasion-attack-budapest-memorandum-treaty/536-8748a51f-10ee-47f0-be30-b4088750ee44
[14] Para más información sobre el potencial de disuasión y combate de las nuevas plataformas colaborativas autónomas de la Fuerza Aérea, véase Caitlin Lee y Mark Gunzinger, The Next Frontier: UAVs for Great Power Conflict | Parte 1: Ataque penetrante (Arlington, VA: Instituto Mitchell de Estudios Aeroespaciales, diciembre de 2022). https://mitchellaerospacepower.org/the-next-frontier-uavs-for-great-power-conflict-part-1-penetrating-strike/
[15] Oficina de Asuntos de Desarme de las Naciones Unidas, "Convención sobre prohibiciones o restricciones del empleo de ciertas armas convencionales que puedan considerarse excesivamente nocivas o de efectos indiscriminados", 10 de octubre de 1980. https://treaties.un.org/doc/Treaties/1983/12/19831202%2001-19%20AM/Ch_XXVI_02p.pdf
[16] Charles Trumbull, "Declaración de EE. UU. sobre LAWS: Posibles aplicaciones militares de tecnología avanzada", declaración, Primera sesión del Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomas Letales [LAWS], 25 de marzo de 2019. https://geneva.usmission.gov/2019/03/26/u-s-statement-on-laws-potential-military-applications-of-advanced-technology/
[17] Departamento de Defensa, "Programa de Derecho de Guerra del Departamento de Defensa", Directiva 2311.01 del Departamento de Defensa, 2 de julio de 2020. https://www.esd.whs.mil/Portals/54/Documents/DD/issuances/dodd/231101p.pdf?ver=2020-07-02-143157-007
Comentarios