Hacia una convención para el uso de la inteligencia artificial y la robótica en los conflictos armados: una mirada desde los principios del DIH y la protección a la población civil

Towards a convention for the use of artificial intelligence and robotics in armed conflicts: a view from the principles of IHL and the protection of the civilian population

DOI:10.5294/aidih.2023.4.4

 

Camilo Alberto Vargas Cano

https://orcid.org/0000-0001-9037-6455

Ejército Nacional de Colombia, Colombia

camivar12@yahoo.com

 

Juan Fernando Gil Osorio

https://orcid.org/0000-0002-6605-6846

Escuela Militar de Cadetes General José María Córdova, Colombia

juanfgo1102@gmail.com

 

Brajhan Santiago Obando Obando

https://orcid.org/0000-0002-2719-6555

Doctorando, Estudios Avanzados en Derechos Humanos
Universidad Carlos III de Madrid, España

santiago.academic23@hotmail.com

Para citar este artículo | To reference this article | Para citar este artigo

Vargas Cano, Camilo Alberto, Gil Osorio, Juan Fernando y Obando Obando, Brajhan Santiago. “Hacia una convención para el uso de la inteligencia artificial y la robótica en los conflictos armados: una mirada desde los principios del DIH y la protección a la población civil”, en Anuario Iberoamericano sobre Derecho Internacional Humanitario, 4 (2023), pp. 105-140 doi: https://doi.org/10.5294/aidih.2023.4.4

Resumen

La intelección de los instrumentos bélicos diseñados en la era posindustrial constituyen un reto para el derecho internacional humanitario (DIH). Los vertiginosos avances de tecnologías como la robótica y la inteligencia artificial han logrado la sofisticación de las armas de combate a tal dimensión que es posible crear robots para integrar los ejércitos, y es por eso que esta investigación pretende justificar los fines que debe tener el derecho de los conflictos armados en la era actual, con objetivos que deben estar orientados hacia una ingeniería jurídica dotada de principios, reglas y categorías epistemológicas útiles para evitar que los robots terminen por deshumanizar el conflicto armado y llevarnos a peores atrocidades históricas como las de la Primera y Segunda Guerra Mundial, hechos que justificaron que la comunidad internacional llegara a consensos éticos y jurídicos para limitar la conducta de los combatientes en el fragor de las hostilidades y salvaguardar a la población civil. La ruta metodológica que se siguió es la de la investigación cualitativa, descriptiva y de dogmática jurídica.

Palabras clave: robots; derecho internacional humanitario; población civil; conflictos armados; ejército.

Abstract

The intellection of the war instruments designed in the post-industrial era constitutes a challenge for international humanitarian law (ihl). The dizzying advances in technologies such as robotics and artificial intelligence have achieved the sophistication of combat weapons to such a dimension that it is possible to create robots to integrate armies, and that is why this research aims to justify the purposes that the law of armed conflicts must have in the current era, with objectives that must be oriented towards a legal engineering endowed with principles, rules and epistemological categories useful to avoid that robots end up dehumanizing war and leading us to worse historical atrocities such as those of the First and Second World Wars, events that justified the international community reaching consensus on ethical and legal minimums to limit the conduct of combatants in the heat of hostilities and safeguard the population no civil. The methodological route that was followed is that of qualitative, descriptive and legal dogmatic research.

Keywords: Robots; International Humanitarian Law (IHL); civilian population; armed conflicts; Army.

Introducción

Para los fanáticos del anime japonés, la historia del Dr. Maki Gero en Dragon Ball Z era una quimera: un científico de laboratorio con ansias de controlar el mundo decide crear unos androides, parte robots, parte humanos, para que recibieran sus órdenes y confrontaran en batalla a sus enemigos (Goku y los demás guerreros Z), luego el Dr. Gero pierde el control de sus creaturas y estas terminan haciendo cuanto quieren e incluso terminan matándolo para no tener que obedecerle.[1] Esta producción de la ciencia ficción nos abrió la ventana del futuro, el advenimiento de los robots asesinos o de las armas autónomas.[2]

Justo esa realidad, representada en diversas series de anime o películas de ficción, llegó al siglo XXI para quedarse, gracias a la implosión de tecnologías emergentes como la inteligencia artificial,[3] la robótica, la mecatrónica, y una de las mayores novedades es que hayan permeado el mundo bélico para dinamizar, crear y diseñar instrumentos para la guerra: robots como instrumentos de combate.[4]

En ese entendimiento, le corresponde al derecho internacional humanitario (DIH) formular, actualizar y renovar sus antiquísimas categorías, para proteger a los combatientes de los riesgos de utilizar la inteligencia artificial y la robótica como estrategia armamentista, y a la población civil, que bajo ninguna circunstancia debe ser víctima de la incapacidad de los sistemas mecatrónicos de controlar sus actuaciones, para distinguir contra quién no deben ir dirigidos los ataques,[5] ergo, el derecho de los conflictos armados pondera entre necesidad militar y humanidad.[6]

Lo que se pretende, entonces, es hacer caer en cuenta que el DIH, también conocido como el derecho internacional de los conflictos armados (DICA), debe ser un derecho vigente, viviente, dinámico y evolutivo, que debe ampliar sus contenidos de protección al campo de la robótica, para que los bienes jurídicos que protege no se vean afectados por la utilización de armas sin control humano, con autodeterminación artificial lesiva, perniciosa y destructiva, que puedan volverse contra sus creadores y contra la humanidad entera sin distinción.[7]

Para cumplir el cometido de la investigación, se adoptará una construcción argumental a partir de los siguientes hilos conductores: 1) reseña histórica de la robótica, la inteligencia artificial en la era posindustrial y su posible aplicación en contextos bélicos; 2) una conceptualización del DIH, sus principios y su necesidad de entendimiento de los “robots combatientes”; 3) una propuesta para regular en clave de DIH la utilización de las armas autónomas, desde la perspectiva del principio de precaución.

1. Reseña histórica de la inteligencia artificial y la robótica

Los procesos históricos de la ciencia son acumulativos,[8] en ningún caso son aislados; la inteligencia artificial y la robótica son ejemplo de esa afirmación porque son el resultado de los alcances de la investigación tecnológica en mecatrónica, informática y los sistema computarizados; con el paso de los tiempos, los acelerados procesos de invención y patentización han llevado a crear un mundo paralelo al real: es el universo de los algoritmos mediante los cuales el ser humano creía tener el dominio y el control de todo lo que ahí sucedía. Pareciera que ya no es del todo cierto.[9]

En cuanto al surgimiento de la inteligencia artificial hay diversos hitos que es necesario mencionar: el primero es de la década de los treinta, pues la paternidad de este campo de conocimiento se le atribuye a Alan Turing, el gran precursor de la computación y la informática contemporáneas; sin este inicio habría sido imposible haber llegado a la existencia de robots dominados por sistemas algorítmicos de inteligencia o cognición artificial.[10]

En 1950, Turing publica un artículo denominado “Computing Machinery and Intelligence” en la revista Mind, y formula preguntas desde una perspectiva futurista sobre hasta dónde llegaría este noble conocimiento con la posibilidad de crear máquinas autónomas e inteligentes, y acerca de si iba a llegar el momento en que habrían robots “inteligentes” dotados de las mismas habilidades psicológicas, cognitivas y mentales de los seres humanos.

El siglo XX y el siglo XXI serían determinantes para el desarrollo de las ciencias informáticas, de la computación y de la robótica, a partir de entonces se avanzó en el diseño de computadoras sofisticadas y las tecnologías de la información y de la comunicación emergieron retando los límites existentes; la robótica llegó a formar parte de la vida de los seres humanos con máquinas que suplían funciones que antes tenían las personas y la inteligencia artificial se convirtió en una alternativa empresarial, pedagógica, comunicativa, e incluso médica: ya no habría ámbito donde no estuviese presente.[11]

Los acontecimientos de las últimas décadas en cuanto a inteligencia artificial y robótica vienen en aumento, se deben destacar casos singulares como los robots dotados de personalidad, con capacidades de razonamiento y evolución psíquica similar a la de los humanos, esto corresponde a tiempos de la revolución mecatrónica.

En 1974, RC Bolles y RP Paul crean un brazo robótico capaz de montar una bomba de agua bajo el control de ellos; este hito representó una buena proyección de lo que sería la robótica del futuro, estos signos de su evolución se marcaron desde el principio y se notarían en otra serie de sucesos.[12]

Otro momento importante fue 1993, cuando en la Universidad de Sussex se crearon robots evolucionarios controlados que imitaban bastante bien la manera de actuar de los seres humanos; este hito marcó la historia de la robótica y de la inteligencia artificial, porque, entonces, a finales del siglo xx se experimentó con la posibilidad de fabricar seres inertes con las lógicas neuronales de la especie humana.

La robótica permea los diferentes ámbitos y profesiones que los seres humanos venían desempeñando. En Bélgica, por ejemplo, en el año 1997 por medio de robots se pudieron realizar procedimientos quirúrgicos y cirugías, lo que para el mundo tecnológico del momento resultaba innovador. A partir de entonces, la medicina ha estado afrontando bastantes desafíos por la llegada de la robótica clínica, y similar situación se vive en otros campos del conocimiento.

El siglo XXI ha visto el perfeccionamiento de la inteligencia artificial y la mecatrónica. Su desarrollo junto al de otras tecnologías ha contribuido a la consolidación de la sociedad del conocimiento; ahora la interacción del ser humano y las máquinas es una realidad plausible, que debe aceptarse con gratitud a la comunidad científica, pero con absoluta reflexión ética sobre sus efectos: hablar de Sofía, la primera robot con ciudadanía y con la capacidad de experimentar emociones, nos llevó a pensar en una futura sociedad con nuevas creaturas y subjetividades robóticas.[13]

Ahora bien, si en casi todas las áreas de la vida y de la humanidad el aterrizaje de los robots genera resistencias morales y fascinaciones científicas, en lo castrense sí que es un tema de debate; la robótica militar forma parte de las nuevas estrategias bélicas y los robots son nuevos instrumentos de ofensiva en combate, y, por ello, la integración de las máquinas a los ejércitos debe ser revisada con base en los parámetros jurídicos aplicables a los conflictos armados nacionales e internacionales.[14]

Es por eso, además, que el DIH contemporáneo, que tradicionalmente ha buscado, mediante la construcción de fuentes vinculantes de derecho internacional público, dotar de normas legales para materializar la dignidad humana en contextos bélicos, debe actualizar sus contenidos, e integrar en su intelección hermenéutica a los robots en las hostilidades. Desde esa perspectiva, cabría preguntarse: ¿el objetivo de hoy es humanizar el conflicto armado, o robotizar el conflicto armado?[15]

La BBC en el año 2010 presentó un anuncio que decía “8000 robots para la guerra y la revolución de la robótica militar”. Diferentes industrias en Estados Unidos están trabajando afanosamente en crear robots autónomos producto de la inteligencia artificial, y en su control mediante sistemas computarizados, para poder llevarlos a los combates y hostilidades. Robots, drones, aeronaves de conducción autónoma, entre otras armas, están inspiradas en la autodeterminación electrónica, es decir, en nuevas agencias de personalidad robótica, hechas por seres humanos, pero que pueden salirse de su control.

En ese sentido, las armas autónomas, definidas por la CICR como “armas que seleccionan objetivos y les aplican la fuerza sin intervención humana”,[16] son el resultado del binomio entre robótica e inteligencia artificial; hoy los robots de la guerra son un supuesto de hecho para el derecho y, sin duda, un reto jurídico para la comunidad internacional, al momento de decidir si se ajustan a los mandatos de la humanidad en las confrontaciones donde se debe ante todo proteger a la población civil.

Corresponde, entonces, hacer un detallado estudio de los principios de la conducción de hostilidades, revisar su génesis y su fundamentación teleológica para luego hacer un juicio de contraste entre las armas autónomas y las diferentes normativas humanitarias para el ejercicio de la beligerancia, en razón a que la pretensión del orden convencional es que no se pierdan unos mínimos de conmiseración en un hecho que de todas maneras siempre va a ser atroz y trágico, con costos morales que cuesta mucho superar, humana e históricamente.

2. Una conceptualización del DIH, sus principios y su necesidad de entendimiento de los “robots combatientes”

Pareciera ambivalente el hecho de que hayan diseñado normas para humanizar el conflicto armado y no para eliminarlo como opción de resolución de conflictos entre Estados y al interior de los mismos; sus resultados siempre devastadores permitirán pensar que en cualquier situación sería mejor que la confrontación militar no se diera; sin embargo, esta aspiración es utópica y lejana a la realidad, la guerra ha estado presente en la historia de la humanidad, y lo menos que se puede esperar es que se establezcan unos parámetros que agrupen condiciones para desarrollarla en clave de humanidad, dignidad y disminución de sus excesos.[17]

A ese conglomerado de normas, principios, costumbres y reglas, que buscan reducir las desproporciones, la crueldad y cosificación de la vida humana en entornos de enfrentamientos militaristas, en el marco de conflictos internos o internacionales, se le denomina derecho internacional humanitario (DIH), una apuesta universal para mantener unos mínimos en medio de las hostilidades, distinguir los objetivos de ataque, de los que no lo son.

Los instrumentos armamentísticos, los destinos de los ataques, las personas, los intervinientes con funciones humanitarias en el contexto del conflicto armado, las salidas a la confrontación, los deberes de los beligerantes, entre otros aspectos, son el objetivo epistemológico y normativo del DIH, y eso responde a una necesidad universal de garantizar la protección para unos bienes jurídicos básicos.

Si bien el derecho de los conflictos armados, como se conoce hoy en el derecho internacional público y en la literatura de diferentes disciplinas, como el derecho, la ciencia política, el internacionalismo y la sociología, es el resultado de las dos guerras mundiales. En sociedades antiquísimas ya existían unos acuerdos para humanizar las guerras y minimizar sus efectos, sobre todo, para quienes no tenían interés ni el deber de participar en las hostilidades, fue en el siglo XIX donde se empieza a codificar el derecho humanitario.[18]

Otros autores sostienen que el DIH fue, entre los primeros antecedentes de la bioética, la disciplina que soportaba deliberaciones morales sobre el comportamiento de la medicina y de otras ciencias de la vida, porque estas se enfocaban solamente en crear normas destinadas a reglamentar la atención a los heridos que han depuesto la armas, las misiones médicas que asistían a los combatientes, los equipos de salud como medicamentos, quirófanos ambulantes, etc.[19]

Sin embargo, 1000 años antes de Cristo, ya había reglamentaciones de origen consuetudinario para abordar las hostilidades, las rendiciones, la consideración a las víctimas y la celebración de tratados paz, es decir que en la preocupación de las civilizaciones por neutralizar los efectos de las hostilidades, esas disposiciones iban a cobrar mucho más utilidad e importancia en los tiempos venideros que vieron el levantamiento de guerras mundiales, no simplemente confrontaciones entre grupos aislados, geográfica, política y culturalmente.[20]

Fue hasta el año 1864, que empieza la codificación del DIH, cuando hubo consenso para la elaboración del primer Convenio de Ginebra, una primera limitante para los métodos de combate y reconocimiento de las víctimas que significó un avance para establecer formas de evolución de las hostilidades.[21]

Es así como el Primer Convenio de Ginebra se refiere, puntualmente, a la protección de combatientes heridos y enfermos; el Segundo Convenio aborda la protección de los enfermos, heridos y náufragos en altamar, el tercero, a los prisioneros de guerra y el cuarto, tal vez de los más importantes, a la población civil y a los territorios en los campos ocupados. Adicionalmente, a los cuatro convenios se adhieren el Protocolo I, sobre conflictos internacionales, y el Protocolo II, sobre conflictos no internacionales, también denominados comúnmente internos.

Estas son las principales fuentes del DIH, como conjunto normativo y sistemático que tiene el deber universal e histórico de adaptarse a las nuevas condiciones de las guerras y a las mutaciones de los instrumentos de combate; la inteligencia artificial y la robótica son armas funcionales a las hostilidades militares, porque traen consigo robots capaces de autodeterminarse y establecer objetivos para desplegar su acción bélica sin la intervención de un ser humano, situación que tiene impulsadores y detractores, y por eso lo conveniente es revisar cómo tratar semejante novedad desde los principios del DIH en el siglo XXI y determinar si se está en mora de crear un nuevo instrumento que se refiera al uso de armas autónomas, robots, drones o métodos de ciberguerra.[22]

Para el profesor Julián Madrid, las armas autónomas (robots en la guerra) no tienen un entendimiento definido en las diferentes fuentes del DIH; no hay precisión conceptual al respecto, ni una disposición normativa específica que limite esta modalidad de armamento; sin embargo, señala que sí se pueden analizar, con base en los principios más importantes del DIH, a saber: humanidad, necesidad militar, distinción, proporcionalidad y precaución.[23]

El debate sobre las armas autónomas en el marco de los conflictos armados es absolutamente importante; a fin de dotar de legitimidad su implementación, hay quienes defienden que los principios del DIH tienen la apertura dogmática y la flexibilidad teórica suficiente para cobijar la viabilidad jurídica de estos instrumentos. Por otro lado, se argumenta que la inspiración de esas normas es ante todo humanista y por eso están destinadas a evitar barbaries; si estas han sucedido entre seres humanos, que tienen un mínimo de racionalidad ética, no se sabe qué podría pasar con las máquinas.[24]

En otro sentido, hay quienes apuestan por la utilización de las armas autónomas en las hostilidades, defendiendo la idea de que la programación computarizada, algorítmica y de inteligencia artificial permitirá que se puedan dar ataques más precisos y evitar sufrimientos determinando con mayor filigrana quiénes van a padecer los efectos de la acción militar.

Ariel Guersenzvaiq plantea que se debe dar el debate acerca de la plausibilidad ética de los sistemas de armas autónomas (AWS) describiendo sus problemas técnicos y la posible incompatibilidad de ellos con el DIH.[25]

Para Nyagudi, en el derecho humanitario, la autonomía letal, intencional o no intencional, de los robots asesinos implica establecer muros de contención ante la crueldad que puede significar una acción militar irreflexiva, y se deben atribuir responsabilidades estatales e individuales por la utilización de armas autónomas, incapaces de prever su potencial de causar daño.

Hay univocidad en la doctrina sobre lo importante de profundizar en la compatibilidad de las armas autónomas letales y los robots asesinos con el derecho de la guerra; en la deliberación ius bélica, se insiste, debe estar presente el discurso de los principios.[26]

2.1. Principio de humanidad

Humillar la condición humana en tiempos de guerra está proscrito. Desconocer la especial consideración que merecen los seres humanos justificándose en la existencia en un conflicto armado o de una guerra no es plausible ni moralmente aceptable. El principio de humanidad demanda la comprensión de que la dignidad humana no debe reducirse, por más que existan razones para la confrontación militar; la cosificación de los individuos, combatientes y no combatientes es una frontera que no se debe cruzar. Este principio tiene como finalidad oponerse a la deshumanización, y mantener ciertos tratamientos acordes con la vulnerabilidad en la que se encuentra la población civil, para quienes han depuesto las armas o se encuentran heridos en medio de las hostilidades.[27]

Así las cosas, una aplicación práctica del principio de humanidad en el contexto de la robótica militar exigiría cuestionarse sobre el uso de armas autónomas letales; sobre los efectos de que los robots ataquen sin control alguno; sobre los intereses políticos, económicos e incluso globales detrás de la exposición de seres humanos en el combate y al lado de máquinas que son menos vulnerables, más dañinas, perniciosas y sin facultades psicológicas para la elección de sus actos. Un sentido de humanidad llevaría a averiguar por las incertidumbres que nacen de un uso armamentístico artificial y computarizado.[28]

¿Qué tiene para decir el principio de humanidad? Seguramente, puede aportar muchas claves para abordar el fenómeno de los robos asesinos; en primera medida, señalaría distintos elementos que deben tenerse en cuenta al pensar en una regulación de DIH sobre el particular: a) los efectos destructivos de las máquinas; b) la responsabilidad de los humanos en el diseño, fabricación y manejo de las armas autónomas en combate; c) el sacrificio de los bienes protegidos por el derecho de guerra; d) las ventajas y desventajas en términos de dignidad humana, y e) las responsabilidades, reparatorias y punitivas por los desfases en su uso.[29]

Seguramente, habrá muchos discursos éticos que defiendan la utilización de estas herramientas de batalla y que hagan visibles sus hipotéticas ventajas; por ejemplo, la reducción de bajas humanas por bajas robóticas, la precisión de las acciones bélicas, sus altos costos, que harían pensar mucho sobre la viabilidad económica de iniciar hostilidades, y el perfeccionamiento de la inteligencia artificial con fines militaristas.[30]

Sin embargo, estas ventajas pueden resultar fantasiosas, y lo que corresponde es analizar la viabilidad de las armas autónomas desde una perspectiva mucho más realista, que atienda las consecuencias perceptibles, de modo que pensar en el futuro, sin analizar los dilemas del presente, puede resultar una práctica evasiva de las responsabilidades actuales que tiene el DIH, justamente para hacer viable la existencia de la especie.[31]

2.2. Principio de necesidad militar

La necesidad militar es un criterio de valoración de estrategias de guerra, y obedece a priorizar la acción bélica solo en aquellos eventos en que sea estrictamente inexcusable la respuesta a las ofensivas. Ese argumento permite sostener que la utilización de robots debe ceñirse a criterios de utilidad y necesidad estrictas, moderando las formas de ataque y la usanza de instrumentos de guerra.[32]

El principio de la necesidad militar es un elemento fundamental del conflicto armado, ya que establece que los combatientes solo deben usar la fuerza militar necesaria para alcanzar sus objetivos militares. Esto significa, que los militares tienen prohibido usar armas y tácticas excesivamente destructivas o arbitrarias durante las operaciones militares.

Al fijar estas limitaciones, el principio de la necesidad militar establece los derechos humanitarios fundamentales para los soldados y civiles involucrados en los conflictos bélicos a fin de evitar que los militares usen armas innecesariamente letales o ejerzan violencia excesiva al luchar contra enemigos o aún para preservar la paz. El principio de la necesidad militar se ha incorporado en numerosos tratados internacionales y ayuda a conservar la compasión humana incluso en los momentos más álgidos de los conflictos. En este caso, la ventaja militar sí es una justificación para adelantar operaciones y debilitar las partes en conflicto, reducir su capacidad ofensiva y, finalmente, ganar la guerra. Toda intervención que esté por fuera de esos objetivos resulta innecesaria y no es aceptada por el DIH.[33]

En esa medida, los robots pueden resultar innecesarios cuando las armas utilizadas por el enemigo no tienen el mismo nivel de sofisticación y desarrollo, y puede entonces ser innecesaria su implementación, por cuanto la necesidad militar no solo está orientada a determinar la urgencia del ataque, sino los mecanismos para efectuarlo.[34]

Bajo el principio de necesidad militar, los ejércitos solo se deben desplegar en situaciones en las que se prevean altos riesgos para las vidas humanas o graves daños a la propiedad. Esto significa que los ejércitos no deben desplegar robots o usar armas autónomas, a menos que se justifique una necesidad humana para hacerlo. Así se evita una escalada de violencia sin necesidad, o que  se dañen intereses humanos.

Por lo tanto, el principio de necesidad militar es un importante marco para establecer los límites del uso de robots y otros sistemas autónomos en el campo de batalla; determina el precio de las vidas humanas a medida que nuestras tecnologías mejoran en el campo de la guerra, y limita el uso de robots a aquellas situaciones en las que se justifique la necesidad humana. Así, contribuye a mantener la integridad humana y evitar la catástrofe a largo plazo.

2.3. Principio de distinción

La diferenciación a la hora de direccionar los ataques es una prerrogativa mínima en el marco de las hostilidades; obliga a determinar cuáles son los objetivos militares y cuáles no lo son; a seleccionar los blancos de guerra y diferenciarlos de los bienes humanos destinados a los cultos, a la educación o en sí, lugares donde está la población civil especialmente protegida por el DIH. A modo de ejemplo, el Cuarto Convenio de Ginebra, en su artículo 18, consagra disposiciones expresas sobre la especial protección de los no combatientes, los heridos y quienes han depuesto las armas, y prohíbe que los ataques se dirijan hacia ellos.

El principio de distinción exige que las acciones bélicas los ataques y los instrumentos para llevar a cabo la guerra, estén unívocamente dirigidos a los objetivos militares y no a quienes no están participando de las hostilidades. Desde esa lógica es conveniente revisar si la implementación de las armas autónomas podría cumplir con esos estándares de diferenciación o distinción, o si deben ser limitadas y hasta prohibidas hasta que no exista certeza absoluta de su poder de autodeterminación letal y su capacidad cognitiva para singularizar a los adversarios.[35]

En esta línea de discurso se puede determinar, entonces, que el principio de distinción obligaría a que las armas autónomas puedan ser aceptables, siempre y cuando puedan controlar, diferenciar y delimitar sus acciones militares; su programación debe ser tecnológicamente avanzada y sofisticada, al punto que estas no ocasionen terror y afectaciones indiscriminadas, ni mucho menos el costo de vida de quienes no participan de las hostilidades.[36]

Dicho enunciado del derecho de los conflictos armados no requiere mayor explicación, salvo las posturas doctrinales que se han referido a especificar en los alcances del deber de diferenciación que tienen los beligerantes; por ejemplo, Peña sostiene que “el principio de distinción es una de las piedras angulares del DIH. Este determina la necesidad de diferenciar en todo momento entre civiles y combatientes, así como entre bienes civiles y objetivos militares”.[37]

En esa lógica, el interrogante de cómo hacer para que las armas autónomas letales no se conviertan en robots asesinos y puedan delimitar el blanco de sus ataques, debe ser objeto de estudio del DIH, en clave de garantizar la distinción, por cuanto la robótica militar, sin límites éticos y legales claros, puede conllevar que se amplíen los márgenes de terror, sufrimiento y zozobra que normalmente producen los conflictos armados, donde la población civil puede recibir de manera directa las ofensivas de los batalladores, sin estos estimar proporciones ni medidas para la intensidad de los efectos que se pueden producir.[38]

Por estas razones, el principio de proporcionalidad también tiene un rol muy importante en los entramados jurídicos e interpretativos del DIH; su aplicación concreta y rigurosa en el diseño de las estrategias militares incidiría en que las órdenes operacionales no tengan consecuencias devastadoras para quienes están en medio de las acciones bélicas, que además supondrían una respuesta en la medida de los ataques recibidos.

La administración pública militar en el ejercicio de sus competencias constitucionales especiales, emite decisiones que tienen efectos jurídicos, su validez y fundamentación depende del derecho internacional de los derechos humanos, el DIH y el derecho constitucional, como es el caso de las órdenes de operaciones. Las operaciones militares son producto de una estrategia construida interdisciplinariamente, no es un asunto de decisión de mando únicamente, sino una concertación a partir de la experticia.[39]

2.4. Principio de proporcionalidad

La proporcionalidad es un principio abordado con extensión en la literatura jurídica. En el campo del derecho constitucional, el profesor alemán Robert Alexy ha sentado las bases epistémicas de su intelección, mereciendo el análisis de muchos autores a nivel mundial, que coinciden en su mayoría en que este tiene utilidad para la restricción justificada y democrática de los derechos fundamentales en casos concretos donde los intereses jurídicos del mismo nivel jerárquico, y tal vez moral, se encuentran en tensión.[40]

Para el DIH, el principio de proporcionalidad tiene exigencias concretas a la hora de establecer los mecanismos de guerra: establece que no pueden haber ataques cuyas dimensiones dañinas sobre los combatientes y la población civil sea mayormente lesiva y destructiva, argumentando la ventaja militar que se puede obtener. Así las cosas, implica esto un análisis constante de medio y fin, pues, sacrificar la dignidad y demás bienes de especial protección por el DIH, resulta inaceptable.[41]

Aterrizando la proporcionalidad a la evaluación de las armas autónomas letales, o robots asesinos, surgen bastantes problemas: el primero, con definir si estas al momento en que despliegan su ofensiva pueden moderar la dimensión de sus ataques; el segundo, relacionado con el desarrollo de las inteligencias artificiales y su aptitud para valorar o medir las estrategias de guerra del contrincante y, el tercero, que tiene mucho que ver con la distinción, asociado con las facultades para diferenciar los objetivos militares de los que no lo son. Hasta el momento, no hay suficiente conocimiento en estas funciones algorítmicas.[42]

Un cuestionamiento al uso de armas autónomas desde la proporcionalidad es que, por no tratarse de seres humanos, su sentido moral o su compasión al momento de combatir puede ser inexistente; es por ello que la deshumanización es un riesgo latente en esta modalidad de lucha. Frente a este principio, lo que queda por decir es que para el DIH hay unos daños que pueden ser aceptados y otros que no: los sufrimientos innecesarios no están legitimados dentro del derecho de guerra y, por tanto, deben reducirse a su mínima expresión, algo que al parecer todavía no es posible para los robots, sin descartar que en un futuro cercano lo sea.

Aunque los reparos existentes son de carácter técnico, y ese es un aspecto que no depende del DIH, sí está obligado a considerarlo para modular sus prohibiciones o permisividad, porque al respecto puede aportar el principio de precaución, un valor doctrinal de la sociedad del riesgo derivada de las revoluciones industriales y tecnológicas, que busca tratar con absoluta cautela todo aquello que pueda ser peligroso para la humanidad.[43]

2.5. Principio de precaución

Desde Aristóteles ya se hablaba del imperativo ético de la prudencia como una virtud humana que dotaba al individuo de la facultad de pensar en las consecuencias de sus acciones y sus efectos sobre el otro. En la ética nicomáquea se plantea como “un deber para aspirar a tener la aprobación social y un vivir sabiamente”, antesala filosófica para lo que sería el “principio de precaución”, desarrollado contemporáneamente por Ulrich Beck y por Hans Jonas.[44]

Invocado jurídicamente en principio por el derecho ambiental, la precaución supone moderar las actividades humanas, impedirlas temporalmente o incluso prohibirlas hasta que no se tenga certeza científica de los daños que pueden ocasionar; o más bien, cuando exista sospecha racional de daños, aunque no haya una absoluta comprobación, es necesario gestionar los riesgos, no para limitar el avance científico o económico, sino para no caer en una perniciosidad sin límite.[45]

El DHI, supone impedir el uso de armamento que no certifiquen su potencial destructor, sus proporciones y sus efectos para los sujetos y objetos tutelados en las fuentes del derecho de los conflictos armados; demanda la observancia de los más altos estándares de certidumbre, teniendo en cuenta que los principales afectados pueden ser los seres humanos y, entre ellos, los más vulnerables: niños, ancianos, personas en situación de discapacidad y enfermos.

El principio de precaución es bastante riguroso a la hora de evaluar el uso de armas autónomas robóticas y letales, porque sus alcances aún no están determinados científicamente, sus consecuencias no previsibles imponen un mando ético para el DIH, y es el de evitar, a toda costa, secuelas irreversibles por uso de armas dirigidas por inteligencia artificial, bastante riesgosas aunque acotadas en la revisión de sus efectos colaterales.[46]

Determinar si las armas autónomas letales cumplen con los requisitos del principio de precaución no es fácil, se requiere una experticia a nivel pericial para prever las ventajas y las desventajas de los robots en el conflicto armado, sobre todo cuando las proyecciones podrían visualizar daños para la población civil. Este principio es un argumento para que la mecatrónica militar ofrezca mayor información a los ejércitos que deciden implementar este armamento, asimismo, a los Estados que son los llamados a aplicar el DIH al momento de decidir sobre el uso de las máquinas bélicas.

Entendiendo el principio de precaución como una alternativa para gestionar los riesgos impredecibles de actos humanos o actividades cuyas consecuencias no son de fácil advertencia en el contexto de las guerras y el uso de las armas, el derecho internacional humanitario restringe medios de guerra de los que no se tenga evidencia de su potencial dañino o certeza sobre las consecuencias en términos de control y dominio por parte de los combatientes. Así las cosas, el principio de precaución modula la incerteza del material armamentístico, obligando a las partes a prescindir del mismo cuando sus efectos no estén claros.[47]

3. Propuesta para regular en clave de DIH la utilización de las armas autónomas desde la perspectiva del principio de precaución

La inteligencia artificial y la robótica militar constituyen una clara evidencia de que el conflicto armado se reinventa y evoluciona a la par de la tecnología posmoderna. Llegar a usar estas tecnologías solo depende del acceso a la ciencia que tengan los combatientes, de la capacidad económica, las políticas de seguridad y la decisión de los comandantes civiles y militares; frente a esta situación, el DIH no puede permanecer inmutable y debe hacer las modificaciones que sean necesarias para regular esta realidad de la era actual, es por eso que debe hacer extensión de sus principios al campo de las armas autónomas letales sin control por el gran problema que pueden representar en términos de humanidad.

En esa línea discursiva, el aporte que se puede hacer desde la doctrina jurídica del DIH es otorgar unas claves para la regulación de los robots y otros armamentos que puedan autogobernarse por los sistemas con los que fueron creados; estos criterios son indispensables porque pueden servirle de base a la comunidad internacional y entidades como la Organización de las Naciones Unidas para promover tratados o declaraciones vinculantes para los Estados, con miras a regular estos instrumentos militares.[48]

Un primer elemento por considerar a la hora de regular las armas autónomas es reconocer que son una realidad que no se puede evadir ni soslayar; más bien, aceptar que los medios de ataque se renuevan en la misma medida que las ingenierías militares se desarrollan y ofrecen nuevos catálogos de equipamientos; de modo, pues, que el DIH no puede prohibir por prohibir, sino que debe emitir normas que modulen los efectos de tales armas y estimar la posibilidad de su inevitable aplicación en las nuevas guerras.

Otro factor pendiente sería la rigurosa observancia de los principios de DIH por parte de los combatientes al momento de usar armas robóticas autónomas, este es un presupuesto importante porque sin unos grados de racionalidad bélica y de humanismo sería imposible controlar los efectos del conflicto interno o internacional. Es común encontrar en la historia el caso de quienes pretenden ganar ventaja militar a cualquier costo, y el sacrificio es bastante grande.

El principio de precaución, que ha sido modernamente acogido en la doctrina del DIH, al referirse al uso de robots, drones, aeronaves con autogestión artificial, debería formular ciertos cuestionamientos sobre los daños irreversibles que todos estos pueden ocasionar, especialmente en los eventos en que la ciencia mecatrónica o robótica no tenga la certeza de poder manejar o controlar sus acciones, ya que su condición de autodeterminación destructiva puede significar muertes en la población civil, afectación ecosistémica y daño en otros bienes de especial protección.

Más que prohibirse, debe condicionarse el uso de la robótica militar, a la certeza sobre sus efectos y al control por los seres humanos detrás de estas creaciones. No puede ser factible entregar a las máquinas algo tan humano como es el conflicto armado, donde las decisiones siempre deben estar mediadas por conciencias morales y algunas ideologías éticas capaces de preservar la dignidad humana.

La judicatura internacional, como la interna de los Estados, debe contemplar juicios de responsabilidad por el uso indiscriminado de la robótica militar sin la observancia del DIH. Las víctimas de las máquinas bélicas usadas por seres humanos en campos de batalla deben tener el derecho a la reparación integral, sobre todo al tratarse de población civil.

El derecho penal internacional debe abrir sus categorías hermenéuticas para tipificar de acuerdo con el Estatuto de Roma la grave violación de los derechos humanos e infracciones del DIH producto del empleo de robots asesinos, no solo por romper las fibras del injusto internacional, sino por la crueldad que representaría en un contexto donde no haya distinción, proporcionalidad, necesidad y precaución.[49]

Valorar argumentos a favor del uso de estas armas también es necesario a la hora de tomar decisiones: sus ventajas en términos de la reducción de vidas humanas perdidas en los campos de batalla, como en la aplicación de estrategias más precisas, pueden resultar aplaudidas y bien recibidas en el DIH, siempre y cuando no se disminuyan las exigencias de los Convenios de Ginebra y sus Protocolos Adicionales.

Para poder pensar en la elaboración de un tratado internacional que contenga el decálogo de principios y normas tendientes a limitar el poder destructor de las armas autónomas letales, es necesario tener un punto de partida, y este debe ser el tratamiento que le ha dado el derecho a la figura de la “persona electrónica” o “persona robótica”, en razón a que al DIH le correspondería otorgar una especie de subjetividad jurídica a las máquinas y reconocerlas como nuevos actores del conflicto armado, así como a otro tipo de participantes dentro de los conflictos armados.

¿Qué debe entenderse por persona electrónica? Existen distintas definiciones respecto del ser persona, su acepción antropológica se identifica con la noción de especie y está mediada por los discursos de la biología, la psicología y los estudios culturales. En ese sentido, un concepto como el siguiente integra la interdisciplinariedad:

La persona posee como características del concepto ser racional, ser una totalidad, poseer una esencia y también una apariencia, tener conciencia, reconocer una identidad, resultar de un proceso de desarrollo sociocultural, unificar el sentir y el pensar, poseer un dentro y un fuera de sí, ser resultado de la interacción sistemática de sus elementos, tener un valor evolutivo y una coincidencia-oposición con el animal.[50]

Desde lo antropológico y lo psíquico, el rasgo distintivo de las personas es la capacidad cognitiva de razonar, pensar, analizar, tomar el control de su vida y adoptar elecciones de acuerdo con su sistema de valores y la identidad que ha logrado construir por la incidencia de la cultura, elementos internos y externos que están presentes y determinan la subjetividad. En este orden de ideas, cabría preguntarse si las personas electrónicas podrían tener similares características a las de las personas humanas, que justifiquen otorgarles un tratamiento especial y reconocerles atributos solo concedidos antes a los seres humanos; un cúmulo de derechos electrónicos desde el derecho privado, ciudadanía robótica desde el derecho público y la inclusión de calidad de combatientes especiales desde el DIH.

La inteligencia artificial sí que ha logrado, mediante la creación de sistemas informáticos, mecatrónicos y electrónicos, dotar de una conciencia fabricada para robots, con facultades psicológicas comparables a las del cerebro humano, por lo que hay, entonces, razones para darle un tratamiento jurídico singular a las personas electrónicas, más aun cuando cumplen la función de combatientes en medio de las hostilidades en los contextos de conflictos armados. Así las cosas, la formulación de un estatuto es indispensable: la subjetividad artificial debe tener unas condiciones jurídicas para relacionarse con la especie humana.

Alan Mathinson Turing afirma que “una computadora puede ser llamada inteligente si logra engañar una persona haciéndole creer que es un humano”. Nada más cierto, en estos tiempos donde los robots pueden experimentar emociones casi de la misma manera que los seres humanos, pueden sostener diálogos reflexivos, suplir perfectamente las funciones de una persona, incluso en el conflicto armado y los combates. Hoy con una computadora se puede controlar el mundo con suma facilidad, de un clic, o tal vez de unos cuantos, puede depender la vida de las poblaciones, y por eso que hay que hacer algo urgente para que la inteligencia artificial no se vuelva en contra de la especie humana.

La Unión Europea, por ejemplo, ya se ha ocupado de plantear opciones de regulación para la persona electrónica y su seguridad jurídica en todo el espacio comunitario. El derecho civil europeo ha establecido los criterios para ampliar los atributos de la personalidad a la categoría de ente psicoelectrónico. Algunos de sus avances más notables incluyen la reciente aprobación de la Directiva de Firma Electrónica, respaldada por todos los Estados miembros.

Esta directiva presenta un marco único para la firma electrónica en la UE, proveyendo seguridad, validación y eficiencia. Por su parte, el Reglamento de Identidad Electrónica de la UE ofrece un nivel adicional de seguridad en la transferencia de datos entre los Estados. A su vez, el Reglamento de Servicios de Transacciones en Línea de la ue establece los principios y requisitos para la prestación de ciertos servicios en línea, garantizando la seguridad jurídica de los usuarios.

Por último, el Reglamento de Retención de Datos Electrónicos de la UE permite a las empresas y a las personas guardar de forma segura datos electrónicos, a fin de evitar la medición de datos y garantizando el respeto a la privacidad de los usuarios. Estas iniciativas, entre otras tantas, permiten la celebración segura de la persona electrónica en toda la Unión Europea.

Un problema epistemológico que tienen las ciencias jurídicas es que sus instituciones tradicionales no sopesaron el fenómeno de la inteligencia artificial; este es un derecho antropocéntrico porque era difícil considerar siglos atrás una subjetividad distintas a la de las personas humanas, así, por ejemplo, Valente sostiene:

Es posible pensar que el Derecho positivo vigente se vea superado por la nueva realidad operándose posiblemente una metamorfosis de las categorías jurídicas. Incluso, en ámbitos comparados se ha planteado si conviene crear una nueva rama jurídica: el Derecho de los Robots.[51]

El derecho robótico debe ser un discurso naciente permeado por distintas especialidades del derecho, para que desde sus lógicas y objetos de estudio aborden las tensiones de la inteligencia artificial y no dejar vacíos jurídicos en los contextos de estas tecnologías o sus efectos sobre la vida humana.

Para el DIH sería muy importante contar con argumentos teóricos y epistémicos para construir una convención sobre robots beligerantes y garantizar la humanización de los conflictos armados con el uso de la inteligencia artificial; ese desafío no puede estar mediado por la improvisación, sino que debe ser una elaboración reflexiva.

Hay autores que afirman que la personalidad jurídica, al ser una construcción jurídica con proyección en las relaciones sociales, debe tener un esquema de atributos, y en el caso de los robots “personoides”, definir la titularidad de garantías especiales por el hecho de ser seres artificialmente sintientes.

En palabras de Valente, la “personalidad electrónica significaría considerar a los robots como una persona de derecho que tiene ciertos derechos y obligaciones de carácter meramente instrumental para un interés económico específico de un ser humano”.[52]

Esa definición de personalidad electrónica propuesta por Valente puede resultar utilitarista y abandona problemas éticos y prácticos profundos, por ejemplo, la capacidad del robot para experimentar dolor, o la crudeza de supeditar funcionalmente su existencia a los intereses humanos. ¿Cuándo y quién podría matar a los robots?

En la película “El hombre bicentenario” se advierte desde la ficción cómo un robot logra desarrollar sus capacidades cognitivas y psicológicas al punto de querer volverse un ser humano. Casi cuatro décadas después, la robótica se perfecciona y las personas electrónicas hacen presencia en diferentes ámbitos. En ese entendido, con la personalidad que se les atribuya, deben necesariamente considerarse garantías morales que se aproximen a las que se les ha dado por el derecho a los seres humanos.

Recientemente, varios gobiernos y organizaciones han tratado de abordar este tema, intentando comprender cómo los principios del derecho se aplican a los robots. En el 2017, una organización alemana presentó una propuesta para otorgarles una personalidad jurídica, de manera que los robots sean responsables de sus propios actos, de su propia propiedad y de su propia responsabilidad civil.

Los avances más recientes en este campo son la iniciativa de la Unión Europea de otorgarle a los robots una “personalidad legal con responsabilidad limitada”, que dicta que los robots no son considerados seres humanos, pero tienen el potencial de ser dueños y responsables de sus propias acciones. Esta propuesta ha generado un gran debate entre los expertos y en cuanto a lo que significa exactamente la responsabilidad de los robots y cómo debe ser abordada por parte de los gobiernos.

En resumen, la personalidad jurídica de los robots ha evolucionado rápidamente en los últimos años, y se espera que en un futuro cercano se resuelvan las preguntas acerca de los derechos y las responsabilidades de estos seres creados por nosotros.

En el plano del derecho de los conflictos armados, la convención para las armas robóticas o autónomas que llegue a crearse debe estimar la dimensión ética de la personalidad electrónica de los robots, así como las implicaciones de otorgarles similar situación jurídica a la de los seres humanos, porque aumentarían los reparos de su uso en el conflicto armado.

En el ámbito de la Unión Europea particularmente, se ha puesto de presente la preocupación por construir el andamiaje jurídico que se refiera a la robotización y la implosión de máquinas dotadas de inteligencia artificial, debido a los cambios incorporados en ellas en cuanto a las formas de relacionamiento con los seres humanos, y el reto que significa establecer unos mínimos para asegurar la convivencia entre el humano y la máquina.

Las preocupaciones frente al tema al interior de la Unión Europea giran en torno a varios aspectos; el primero de ellos tiene que ver con evitar que los robots se salgan del control humano, esto debido al potencial de independencia y autonomía a la que se ha probado puede llegar la inteligencia artificial; el segundo tiene que ver con la finalidad de su creación, pues hay consenso en que las armas autónomas no pueden ser para destruir a los mismos seres humanos, y tercero, con una nueva forma de relacionamiento entre los individuos y las máquinas, al punto de poder establecer relaciones afectivas y familiares. Es así como hay quienes sostienen que

… crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo, los robots autónomos más complejos puedan ser consideradas personas electrónicas de reparar los daños que puedan causar y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente.[53]

La discusión es importante, porque un estatuto de la personalidad electrónica de los robots debe abordar el tema del deber de reparar los daños que estos puedan causar. Si se les atribuye dicha personalidad, ¿tendrían todos los atributos?, ¿tendrían patrimonio que no se confunda con el de su creador?, ¿serían parte en una eventual demanda?, ¿se les podría hacer un reproche penal por la conducta lesiva de bienes jurídicos protegidos por el derecho criminal? Al interior de esta interesante discusión jurídica, la primera respuesta a estos interrogantes que se podría arrojar, desde la razón y la lógica, es que no es factible el otorgamiento de una personalidad igual a la de las personas humanas, pero sí es necesario que tengan una especial consideración.

En esa línea discursiva cobra mucho sentido la afirmación de Díaz Calvarro cuando advierte sobre los aspectos en los que la personalidad electrónica no sería comparable con la personalidad jurídica de los seres humanos:

El objetivo de la creación de una personalidad jurídica electrónica es hacerles aptos para ser titulares de derechos y obligaciones y tener un reconocimiento jurídico y la atribución de derechos de carácter patrimonial pero no los constitucionales ni los de personalidad, consustanciales a la dignidad de los seres humanos.[54]

En otras palabras, la personalidad electrónica que se les otorgue sería en función del respeto a la dignidad humana, considerando que la relación del ser humano con las tecnologías debe estar mediada por la bioética y el aseguramiento de una supervivencia, sin los excesos de la ciencia o temores mal sustentados.

De modo que en el ámbito del conflicto armado el DIH tendría que articular las recomendaciones que algunos sectores de la doctrina vienen haciendo sobre la personalidad electrónica de las armas autónomas, y compartir algunas de estas preocupaciones porque el ejercicio bélico por robots debe tener rigurosos controles jurídicos.

Otro punto que merece el análisis teórico es determinar si el robot es una cosa frente a las categorías tradicionales del derecho civil con base romanista, o si es un ente jurídicamente especial que ocupa un tipo de categoría intermedia entre el ser humano y la cosa. La persona electrónica, en efecto, vendría a ser una cosa con el reconocimiento de derechos y obligaciones supeditadas a la voluntad y a la funcionalidad humana. Para el DIH, este sería un buen punto de partida: el entendimiento de que las acciones de los robots dependen de decisiones humanas.

Otra pregunta interesante, o más bien respuesta, es: ¿qué tipo de derechos tienen los robots? Estos serían derechos electrónicos relacionados con no causar el mal a la humanidad, ni ser instrumentalizados para actos de crueldad. De igual forma, hasta la ficción nos ha mostrado emociones en una máquina y por eso no sería sensato moralmente destruirlas sin razón, por el solo hecho de ser cosas.

El Parlamento de Europa, siendo uno de los precursores de la regulación de los derechos de los robots y la creación de un estatuto para las personas electrónicas, ha emitido una serie de recomendaciones que deben observar los Estados y la comunidad internacional a la hora de crear un marco legal sobre la robótica. Estas recomendaciones se dan sobre los siguientes puntos:

La posibilidad de control y detenimiento remoto del robot, incluso mecanismos de detención inmediata en casos de urgencia.

  • Respeto por la privacidad humana.
  • Previsión de riesgos.
  • Responsabilidad.

Adicional a estos puntos, se han hecho reflexiones bioéticas sobre los principios que deben guiar la creación de robots y de inteligencia artificial y son, naturalmente, la beneficencia y la no maleficencia reconociendo la necesidad del progreso tecnológico y, por supuesto, de apoyo en la inteligencia artificial para diversas actividades humanas, pero el objeto de su creación no puede ser la destrucción de la especie humana. En ese entendido, para el DIH es todo un reto construir una constelación de normas convencionales porque en principio se sabe que la finalidad va a ser el conflicto armado.

¿Es lícito enfrentar robots? Sí, siempre y cuando no sea por capricho o por el deseo de destrucción masiva de ciertos poderes políticos o económicos, porque el trasfondo ideológico del conflicto armado se debe a la ambición del poder y el deseo de dominación histórico de las civilizaciones, que es evidente habiendo un pasado con una impronta bélica bastante marcada; de hecho, el siglo XXI se construye sobre los resquicios de guerras.

4. Regular en clave de DIH la utilización de las armas autónomas desde la perspectiva del principio de precaución

No tendría sentido abordar el concepto de persona electrónica, ni advertir las novedades que traen consigo los robots en el campo del conflicto armado, ni hacer referencia a la necesidad de que el DIH piense en una nueva convención específica sobre armas autónomas, si no se hiciera un aporte sensato y reflexivo sobre un posible parámetro en clave convencional; por esa razón, este análisis presenta un modelo de regulación para este tópico de tanta relevancia para el derecho de los conflictos armados contemporáneo.

Reconociendo que los robots son una realidad para el conflicto armado de los tiempos que vienen, que bajo ninguna circunstancia será posible de evadir, la mutación bélica en la era de las tecnologías emergentes ha superado los límites de los antiquísimos métodos de combate que existían en el momento histórico en el cual los Convenios de Ginebra y sus Protocolos Adicionales fueron creados; entonces, a fuerza de circunstancia, es conveniente pensar en una convención que los regule.

Así las cosas, se presenta a continuación una propuesta de regulación que integra los diferentes principios del dih, adaptándose a la realidad de la inteligencia artificial, como tendrá que adaptarse a venideros inventos.

5. Propuesta de Convenio para la utilización de robots, armas autónomas letales y el uso de métodos de inteligencia artificial en el desarrollo de los conflictos armados

Reconociendo las nuevas formas de combate derivadas de la incidencia de la tecnología, la robótica y la inteligencia artificial en el contexto de los conflictos armados nacionales e internacionales, se han puesto de presente las medidas para garantizar que los principios del DIH, el ius gentium, entre otras disposiciones convencionales, debidas a la dignidad de la persona humana, la humanización del conflicto armado y la prevención de todo acto de crueldad, barbarie, y el reconocimiento de la personalidad electrónica de los sistemas autónomos artificiales, y conscientes de la necesidad de lograr la paz mundial, se promulgan las siguientes recomendaciones:

Finalidad de la una posible convención: la regulación del uso de la inteligencia y armas autónomas letales por parte de los ejércitos en el marco de las confrontaciones bélicas y de combate.

Justificación del uso de robots y otras tecnologías de inteligencia artificial en las hostilidades: el uso de las máquinas, los robots y tecnologías de inteligencia artificial solo podrán implementarse con la finalidad de evitar el sacrificio de vidas humanas y cuando exista acuerdo común entre las partes en combate de integrar ejércitos con máquinas, sustituyendo a los individuos humanos.

Prohibición de confrontación de robots y máquinas con seres humanos: se prohíbe el uso de robots como medio de ataque militar cuando a quienes se enfrenten sean ejércitos conformados por seres humanos, y bajo ninguna circunstancia, la ventaja militar es un argumento de recibo para adelantar procedimientos bélicos desproporcionales.

Reconocimiento de personalidad electrónica de los robots mejorados por inteligencia artificial: se reconocen mínimos morales atribuidos a los robots derivados de la existencia de su personalidad electrónica, entre estos, el respeto por su autonomía cuando no signifique letalidad, el control de los seres humanos en casos de urgencia, su utilización en escenarios de combate solo en ámbitos de conflictos armados. Se les acepta la posibilidad de interacción con los seres humanos y reconoce el derecho a ser reparados en su integridad robótica cuando sufran ataques y su sistema de funcionamiento no se haya destruido totalmente.

Uso de la inteligencia artificial, robótica y principio de precaución: cuando se desconozcan los efectos, la capacidad lesiva y destructiva de los robots o máquinas en el campo de batalla, así como sus habilidades para distinguir los objetos de ataque y cuando exista sospecha fundada científicamente sobre vulneración a la población civil y otros bienes protegidos por el DIH, se prohibirá el uso de estos mecanismos armamentísticos.

Responsabilidad: cuando las partes contratantes y suscriptoras de una eventual convención sobre el uso de la robótica en contextos de confrontación militar violen cualquiera de estas disposiciones, tendrán el deber de reparar los daños causados y serán juzgados por la judicatura internacional y por los jueces internos; así mismo, se predicara la responsabilidad penal de los creadores de las armas robóticas y de quienes controlen su uso de acuerdo con el Estatuto de Roma, los estándares de derechos humanos, del DIH y el derecho penal interno.

Preámbulo

Los Estados signatarios, conscientes de la importancia que reviste el establecimiento de un marco internacional para la regulación de la utilización de robots, armas autónomas letales y el uso de métodos de inteligencia artificial en los conflictos armados, han decidido celebrar el presente Convenio.

Artículo 1. Definiciones. Para los efectos, se entenderá por robots todos aquellos artefactos mecánicos dotados de inteligencia artificial, autónomos o de teledirigidos, que puedan ser empleados para cometer actos que impliquen el uso de la fuerza y las armas autónomas letales, como son los vehículos armados, drones, tecnologías de guerra no tripulada y similares; se entenderá por armas autónomas letales aquellas armas que son capaces de actuar sin la supervisión continua de un humano y de determinar la oportunidad y circunstancias para recurrir a la fuerza letal realizando el objetivo a través de un control informático; se entiende por inteligencia artificial aquellos sistemas con la capacidad de aprender, deducir, adaptarse y predecir resultados cambiantes sin requerir programación específica.

Artículo 2. Limitación de la captación de datos. En ningún caso un Estado utilizará robots, armas autónomas letales y/o métodos de inteligencia artificial a fin de captar información, tanto de las personas como de las acciones militares desarrolladas por los Estados signatarios.

Artículo 3. Regulación de la utilización de los robots. Todo Estado que utilice o prevea utilizar robots, armas autónomas letales y métodos de inteligencia artificial en los conflictos armados es responsable de su activación y dirección, debiendo responder por la manera en que estos sean utilizados. Así mismo, los Estados no estarán autorizados a fallar en la responsabilidad de prevenir cualquier efecto adverso de los robots, armas autónomas letales y métodos de inteligencia artificial, incluyendo lesiones o muertes.

Artículo 4. Utilización de robots en instalaciones de carácter humanitario. Los Estados se comprometen a no utilizar robots, armas autónomas letales y/o métodos de inteligencia artificial en la instalación de estructuras humanitarias, tales como hospitales, escuelas u otros equipamientos destinados a la atención de la población civil.

Artículo 5. Informes y responsabilidad. Los Estados signatarios se comprometen a proporcionar los informes periódicos sobre el uso de robots, armas autónomas letales y métodos de inteligencia artificial que haga cada Estado involucrado en los conflictos armados. Además, asumirán responsabilidad penal y civil si estos sistemas causan algún daño o muerte en otras partes.

Artículo 6. Vigencia y ratificación.

El Presente Convenio entrará en vigor desde la fecha de su firma por parte de los Estados signatarios.

Los Estados serán los únicos destinatarios del presente Convenio y los presidentes de los fondos firmarán con el mismo nombre de los Estados.

El presente Convenio mantendrá su vigencia sin limitación temporal, siempre que los Estados estén sujetos a sus obligaciones.

El incumplimiento de cualquiera de los artículos traerá como consecuencia la rescisión del presente Convenio.

En testimonio de lo aquí expuesto, los Estados signatarios suscriben el presente Convenio y lo presentan para su ratificación.

Firmantes: ___________________________                                                                    

(Nombre y fecha)

Conclusiones

La cláusula Martens es uno de los primeros referentes de regulación de la guerra en el derecho internacional, y compromete a las partes en conflicto a la adopción de las disposiciones del derecho de gentes, un derecho prima facie que humaniza las condiciones de la beligerancia, y que actualmente se convierte en parámetro interpretativo del corpus jurídico del derecho internacional humanitario, cláusula que podría resultar extensible a la ingeniería militar basada en la robótica y la inteligencia artificial.

Es necesario establecer límites claros en el uso de la inteligencia artificial y la robótica en los conflictos armados. Estos límites deben reflejar los principios generales del derecho internacional humanitario (DIH), a fin de garantizar un respeto adecuado por la vida y la dignidad de los civiles afectados por el conflicto armado.

Los Estados deben cumplir su obligación de protección de la vida y la integridad de los civiles en todas las fases de un conflicto militar. Esta obligación se refuerza con el uso de la inteligencia artificial y la robótica en todos los niveles, desarrollando protocolos y reglas que provean una mayor seguridad para los no-combatientes.

Es necesario construir un consenso internacional alrededor de los principios establecidos en una Convención sobre la misma, a fin de garantizar un respeto para los derechos humanos y el DIH, humanizar el conflicto armado y proteger a la población civil.

La adopción de los principios universales del DIH aplicables a la inteligencia artificial y la robótica en los conflictos armados, representa un paso importante para lograr una mayor protección de los civiles afectados por el conflicto armado. Estos principios deben permitir el uso adecuado de la tecnología, respetar los valores humanitarios y promover el diálogo internacional sobre el tema.

Después de hacer un análisis de las armas autónomas, los robots asesinos o sistemas artificiales de combate, no queda más que sostener que la discusión sigue abierta, que la relación entre el DIH y la tecnología es más estrecha que nunca, y que se requieren nuevos contenidos para regular la acción bélica desarrollada mediante estos mecanismos modernos.

Principios como el de precaución, que cobran vigencia en el derecho de los conflictos armados, no prohíben con radicalismos el empleo de armas autónomas, pero sí les impone a los combatientes no usar las que no puedan delimitar con certeza su potencial destructivo.

Por último, una afirmación casi clarividente, el uso de armas autónomas o robots será una modalidad de guerra, combate y confrontación militar cercana a la realidad en los tiempos próximos; los Estados y los ejércitos harán todo lo que esté a su alcance para equiparse de estos instrumentos, por lo que el DIH tiene que correr para alcanzar a reglar este fenómeno antes de que dé sin un marco legal limitante.

Es urgente la creación de un mecanismo de derecho internacional público que sea fuente vinculante para los Estados respecto del uso de la robótica en el ámbito militar con la estricta observancia de los principios del DIH, la protección de la población civil y el aseguramiento de unos mínimos éticos en medio del conflicto armado, su suscripción y aprobación dependen, únicamente, de la voluntad política de la comunidad internacional y la de los Estados; de no hacerse, las consecuencias, en términos de humanidad e historia, podrían ser devastadoras, de modo que no hay que esperar hasta la fatalidad para tomar la decisión de regular la inteligencia artificial en el campo de combate.

 

 

 

 

 

 


[1]        Ronald Cárdenas, “El derecho y robots: el futuro ya está presente”, Revista de Derecho Penal Económico 4
(2021), p. 45.

 

[2]        David Corral, “Inteligencia artificial en la batalla. Un guerrero preciso y letal sin alma ni corazón”, Boletín del Instituto español de estudios estratégicos, 11 (2021), p. 10.

 

[3]        David Sánchez, “Ciencia ficción y derechos humanos: desde la complejidad, las tramas sociales y los condicionales contrafácticos”, Praxis, 64 (2010), p. 51.

 

[4]        Alfredo Bullard, Un derecho de ciencia ficción: derecho y tecnología, de la distopía socialista a la utopía capitalista, Universidad de Yale, 2021, https://law.yale.edu/sites/default/files/documents/pdf/sela/SELA11_Bullard_CV_Sp_20110311.pdf, consultado el 15 de marzo de 2023

 

[5]        Araceli Mangas Martín, Conflictos armados internos: derecho internacional humanitario, Madrid, Ediciones Universidad de Salamanca, 1990, p. 79.

 

[6]        Alejandro Valencia Villa, Derecho internacional humanitario, conceptos básicos: infracciones en el conflicto armado colombiano, Bogotá, Editorial de la Universidad del Rosario, 2015, p. 112.

 

[7]        Luis Ángel,Benavides Hernández, Derecho Internacional Humanitario, Colección de textos sobre derechos humanos, México, Biblioteca Jurídica Virtual, 2015, p. 23.

 

[8]        María Cristina Hernández,“Historia de la ciencia y formación de los científicos”, Perfiles Educativos, XVIII, 73 (julio-sept, 1996).

 

[9]        Ministerio de Defensa, Usos militares de la inteligencia artificial, la automatización y la robótica,Centro Conjunto de Desarrollo de Conceptos, 2020, p. 26.

 

[10]      Andrés, Abeliuk, “Historia y evolución de la inteligencia artificial”, Revista IA Chile (2021), p. 34.

 

[11]      Gustavo Vásquez, “Inteligencia artificial, historia, actualidad y desafíos futuros”, Revista de la Universidad Católica de Uruguay (2019), p. 90.

 

[12]      Fernando Galindo Ayuda, “¿Inteligencia artificial y derecho? Sí, pero como”, Revista de Filosofía del Derecho de la Universidad de Zaragoza, 2 (2019), p. 37.

 

[13]      José Antonio Pinto Fontanillo y Ángel Sánchez De La Torre, Los derechos humanos en el siglo xxi. ¿Robots con derechos?, México, Edisofer, 2020, p. 45.

 

[14]      Harrison Kerr Fleming, La robotización del sector militar en Estados Unidos, Madrid, Ediciones de la Universidad de Comillas, 2020, p. 6.

 

[15]      Pedro Pablo Camargo, “Evolución de las normas de Derecho Internacional Humanitario y desafíos actuales a su vigencia efectiva”, Anuario de derechos humanos de la Universidad Eafit, 4 (2019), p. 34.

 

[16]      Comité Internacional de la Cruz Roja (CICR), Posición del CICR sobre los sistemas de armas autónomos,
12 de mayo de 2021, https://www.icrc.org/es/document/posicion-del-cicr-sobre-los-sistemas-de-armas-
autonomos
.

 

[17]      Julián Ariel Madrid Moreno, “El derecho internacional humanitario frente al desafío de las armas autónomas”,Anuario Iberoamericano sobre derecho internacional humanitario, 3 (2022), pp. 49-84.

 

[18]      Alfredo Vedross, Derecho internacional público, Editorial Paidós, 2005, pp. 100.

 

[19]      Eduardo Rivera López,“Derecho y bioética”, en Enciclopedia de Filosofía y Teoría del Derecho, III (2015), pp. 2735-2747.

 

[20]      Hortensia Gutiérrez Posse, Elementos de derecho internacional humanitario, Buenos Aires, Eudeba, 2014, p. 111.

 

[21]      Alejandro Valencia Villa, La humanización de la guerra: derecho internacional humanitario y conflicto armado en Colombia, Bogotá, Ediciones UniAndes, 1991, p. 67.

 

 

[22]      Delio Jaramillo Arbeláez, La protección del hombre en los conflictos armados, Bogotá, Ediciones de la Universidad Santo Tomás, 2012, p. 78.

[23]      Madrid Moreno, “El derecho internacional humanitario frente al desafío de las armas autónomas”, pp. 49-84.

[24]      Eva Martín Ibáñez,“La autonomía en robótica y el uso de la fuerza”, Boletín ieee, 27, 3 (2017), p. 855.

[25]      Ariel Guersenzvaig, “Autonomous Weapon Systems: Failing the Principle of Discrimination”, eee Technology and Society Magazine, 37(2018), p. 61.

[26]      Cesáreo Espada Gutiérrez y María José Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, Revista de derechos humanos e inteligencia militar, 2 (2020), p. 58.

[27]      Juan Fernando Contreras Ortíz, “El derecho internacional humanitario: el principio de una educación para la paz”,Revista de Educación de la Universidad de la Sabana, 1 (2016), p. 178.

[28]      María Carolina Romero, El derecho internacional humanitario en el siglo xix, Bogotá, Universidad Pontificia Javeriana, 2000, p. 5.

[29]      Gabriel Alessander Arancibia Fischer, “La influencia del Derecho Internacional Humanitario en los procesos de desarme”, tesis sustentada en la Facultad de Derecho de la Universidad de Chile, 2016, p. 112.

[30]      Pablo Pugliese y Bautista Griffini,“Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) en los conflictos armados modernos”, Revista Perspectivas Revista de Ciencias Sociales, Año 6, 11 (2021), pp. 397-399.

[31]      María de los Ángeles De Varona, Breve comentario sobre el desafío que para el Derecho Internacional Humanitario representan las armas autónomas, 2016, https://files.sld.cu/derinthumanitario/files/2016/03/las-armas-autonomas y-el-dih-dr-c-leonel-gorrin-merida.pdf, consultado el 20 de septiembre de 2021.

[32]      Instituto Interamericano de Derechos Humanos, Manual de derechos humanos para las Fuerzas Armadas, 2004, p. 105.

[33]      Naciones Unidas, Informe del periodo de sesiones de 2019 del Grupo de Expertos Gubernamentales sobre las Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomos Letales, Ginebra, United Nations Office for Disarmament Affairs, 2019, p. 3.

[34]      Fulvio Queirolo Pellerano, “Sistemas de armas autónomos letales (laws). Reflexiones para un debate”, Revista Política y Estrategia, 0, 134 (2019), p. 153.

[35]      César Peña Aragón, “El principio de distinción del Derecho Internacional Humanitario: fundamentación, alcances, limitaciones y retos” (tesis) Universidad Nacional de Colombia, 2014, p. 50.

[36]      Carlos Andrés Bernal Castro,“Principios del Derecho Internacional Humanitario”, Revista Penal Jus, 19 (2017), p. 156.

[37]      Martha Isabel Hurtado Granada, “Los límites del derecho internacional humanitario a las armas autónomas”, Revista Científica General José María Córdova, 15, 20 (2017), p. 90.

[38]      Catalina Hierro HernÁNdez Mora,“Las armas letales autónomas en el derecho internacional humanitario: ¿avance o amenaza?”,Universidad Pontifica Comillas (2019)pp. 134-167.

[39]      Juan Gil y Obando Brajhan, “La orden de operaciones en la actividad militar: ¿un acto administrativo sin control judicial de legalidad?”,Revista Temas Procesales, 34 (2021), pp. 4-35.

[40]      Robert Alexy, Teoría de la argumentación jurídica, 2 ed., Madrid, Ediciones del Centro de Estudios Político y Constitucionales de Madrid, 2010, p. 90.

[41]      Naciones Unidas, Proyecto de artículos sobre responsabilidad del Estado por hechos internacionalmente ilícitos, 53° periodo de sesiones cdi (A/56/10) y anexado por la Asamblea General en su Resolución 56/83, 2010.

[42]      Carlos Bernal Pulido, El principio de proporcionalidad y los derechos fundamentales, 4 ed., Bogotá, Editorial de la Universidad Externado de Colombia, 2014, p. 65.

[43]      Queirolo Pellera, “Sistemas de armas autónomos letales (laws). Reflexiones para un debate”, p. 153.

[44]      Jean-François Quéguine, “Precauciones previstas por el derecho relativo a la conducción de las hostilidades”,International Review of the Red Cross 864 (2006), p. 11.

[45]      Andrés Mauricio Briceño, El principio de precaución en la sociedad de riesgos ambientales, Bogotá, Editorial de la Universidad Externado de Colombia, 2017, p. 57.

[46]      Michael Schmitt, The Impact of High and Low-Tech Warfare on the Principle of Distinction, Program on Humanitarian Policy and Conflict Research at Harvard University, Briefing Paper, noviembre de 2003, p. 10.

[47]      Ana María Moure, “El principio de precaución en el derecho internacional”, en Revista de Derecho Internacional Universidad de Chile, 11 (1998).

[48]      Pablo Pugliese y Bautista Griffini,“Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) en los conflictos armados modernos”, Revista Perspectivas Revista de Ciencias Sociales, Año 6,
11 (2021), p. 397.

[49]      Kai Ambos y Ezequiel Malarino, La parte general del derecho penal internacional, Uruguay, Fundación Konrad-Adenauer, 2005, p. 189.

[50]      Juan Carlos Zavala, “Amplitud del concepto de persona basada en aportes del México indígena”, Ciencia Ergo Sum, 23, 2 (2016), pp. 145-153.

[51]      Luis Alberto Valente, “La persona electrónica”,Revista Anales de la Facultad de Ciencias Jurídicas y Sociales, Universidad Nacional de La Plata (2019), p. 49.

[52]      Luis Alberto Valente, “La persona electrónica”,Revista Anales de la Facultad de Ciencias Jurídicas y Sociales, Universidad Nacional de La Plata (2019), p. 49.

[53]      Juliana María Díaz Calvarro, “El robot como contribuyente reflexión sobre la personalidad jurídica digital”, Anuario de la Facultad de Derecho de la Universidad de Extremadura, 37 (2021), p. 52.

[54]      Juliana María Díaz Calvarro, “El Robot como contribuyente reflexión sobre la personalidad jurídica digital”, Anuario de la Facultad de Derecho de la Universidad de Extremadura (2021), p. 52.

Bibliografía

Doctrina

Abeliuk, Andrés, “Historia y evolución de la inteligencia artificial”, Revista IA Chile, (2021), p. 34.

Alexy, Robert, Teoría de la argumentación jurídica, 2 edición, Madrid, Ediciones del Centro de Estudio Político y Constitucionales de Madrid, 2010, p. 90.

Ambos, Kai y Ezequiel, Malarino, La parte general del derecho penal internacional, Fundación Konrad-Adenauer, Oficina Uruguay, 2005, p. 189.

Arancibia Fischer, Gabriel Alessander, “La influencia del Derecho Intermacional Humanitario en los procesos de desarme”, tesis sustentada en la Facultad de Derecho de la Universidad de Chile, 2016, p. 112.

Benavides Hernández, Luis Ángel, Derecho internacional humanitario, Colección de Textos sobre Derechos Humanos, México, Biblioteca Jurídica Virtual, 2015, p. 23.

Bernal Castro, Carlos Andrés, “Principios del derecho internacional humanitario”, Revista Penal Jus, 19 (2017), p. 156.

Briceño, Andrés Mauricio, El principio de precaución en la sociedad de riesgos ambientales, Bogotá, Editorial de la Universidad del Externado de Colombia, 2017, p. 57.

Bullard, Alfredo, Un derecho de ciencia ficción: Derecho y Tecnología, de la distopía socialista a la utopía capitalista, Universidad de Yale, 2021, https://law.yale.edu/sites/default/files/documents/pdf/sela/SELA11_Bullard_CV_Sp_20110311.pdf, consultado el 15 de marzo de 2023.

Camargo, Pedro Pablo, “Evolución de las normas de Derecho Internacional Humanitario y desafíos actuales a su vigencia efectiva”, Anuario de derechos humanos de la Universidad Eafit, 4 (2019), p. 34.

Cárdenas, Ronald, “El derecho y robots: el futuro ya está presente”, Revista de Derecho Penal Económico (2021), p. 45. https://doi.org/10.52749/iet.v4i1.3

Comité Internacional de la Cruz Roja (CICR), Posición del CICR sobre los sistemas de armas autónomos, 12 de mayo de 2021, https://www.icrc.org/es/document/posicion-del-cicr-sobre-los-sistemas-de-armas-autonomos

Contreras Ortiz, Juan Fernando, “El derecho internacional humanitario: el principio de una educación para la paz”, Revista de Educación de la Universidad de la Sabana, 1 (2016), p. 178.

Corral, David, “Inteligencia artificial en la batalla. Un guerrero preciso y letal sin alma ni corazón”, Boletín del Instituto español de estudios estratégicos, 11 (2021), p. 10.

De Varona, María de los Ángeles, Breve comentario sobre el desafío que para el Derecho Internacional Humanitario representan las armas autónomas, 2016, https://files.sld.cu/derinthumanitario/files/2016/03/las-armas-autonomas-y-el-dih-dr-c-leonel-gorrin-merida.pdf, consultado el 20 de septiembre de 2021.

Díaz Calvarro, Juliana María, “El Robot como contribuyente reflexión sobre la personalidad jurídica digital”, Anuario de la Facultad de Derecho de la Universidad de Extremadura, 37 (2021), p. 52. https://doi.org/10.17398/2695-7728.37.51

Fleming, Harrison Kerr, La robotización del sector militar en Estados Unidos, Madrid, Ediciones de la Universidad de Comillas, 2020, p. 6.

Galindo Ayuda, Fernando, “¿Inteligencia artificial y derecho? Sí, pero como”, Revista de Filosofía del Derecho de la Universidad de Zaragoza, 2 (2019), p. 37.

Gil, Juan y Obando Brajhan, “La orden de operaciones en la actividad militar. ¿Un acto administrativo sin control judicial de legalidad?”, Revista Temas Procesales, 34, pp. 4-35.

Guersenzvaig, Ariel, “Autonomous Weapon Systems: Failing the Principle of Discrimination”, EEE Technology and Society Magazine, 37 (marzo de 2018), p. 61. https://doi.org/10.1109/MTS.2018.2795119

Gutiérrez Espada Cesáreo y María José Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, Revista de Derechos Humanos e inteligencia Militar, 1 (2020), p. 58.

Gutiérrez Posse, Hortensia, Elementos de derecho internacional humanitario, Buenos Aires, Eudeba, 2014.

Hernández, María Cristina, “Historia de la ciencia y formación de los conflictos”, Perfiles Educativos, xviii, 73 (julio-septiembre 1996).

Hernández Mora, Hierro, Las armas letales autónomas en el Derecho Internacional Humanitario: ¿Avance o amenaza?, Universidad Pontificia Comillas, 2019,
pp. 134-167.

Hurtado Granada, Martha Isabel, “Los límites del derecho internacional humanitario a las armas autónomas”, Revista Científica General José María Córdova, 15, 20 (2017), p. 90. https://doi.org/10.21830/19006586.176

Jaramillo Arbeláez, Delio, La protección del hombre en los conflictos armados, Bogotá, Ediciones de la Universidad Santo Tomás, 2012.

Madrid Moreno, Julián Ariel, “El derecho internacional humanitario frente al desafío de las armas autónomas”, Anuario Iberoamericano sobre Derecho Internacional Humanitario, 3 (2022), pp. 49-84. https://doi.org/10.5294/aidih.2022.3.3

Mangas Martín, Araceli, Conflictos armados internos: derecho internacional humanitario, Madrid, Ediciones Universidad de Salamanca, 1990.

Martín Ibáñez, Eva, “La autonomía en robótica y el uso de la fuerza”, Boletín IEEE, 27 (2017), p. 855.

Ministerio de Defensa, Usos militares de la inteligencia artificial, la automatización y la robótica, Centro Conjunto de Desarrollo de Conceptos, 2020.

Moure, Ana María, “El principio de precaución en el derecho internacional”, Universidad de Chile, Revista de Derecho Internacional Universidad de Chile,
11 (1998).

Peña Aragón, César,“El principio de distinción del Derecho Internacional Humanitario: fundamentación, alcances, limitaciones y retos” (tesis) Universidad Nacional de Colombia, 2014.

Pinto Fontanillo, José Antonio y Ángel, Sánchez de la Torre, Los derechos humanos en el siglo xxi. ¿Robots con derechos?, México, Edisofer, 2020.

Pugliese, Pablo y Bautista, Griffini, “Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) en los conflictos armados modernos”, Revista Perspectivas Revista de Ciencias Sociales, 6, 11 (2021), pp. 397-399. https://doi.org/10.35305/prcs.vi11.456

Quéguine, Jean-François, “Precauciones previstas por el derecho relativo a la conducción de las hostilidades”,International Review of the Red Cross, 864 (2006), p. 11.

Queirolo Pellera, Fulvio, “Sistemas de armas autónomas letales (laws). Reflexiones para un debate”, Revista Política y Estrategia, 0, 134 (2019), p. 153. https://doi.org/10.26797/rpye.v0i134.790

Rivera López, Eduardo, “Derecho y bioética”, en Enciclopedia de la Filosofía y Teoría del Derecho, iii (2015), pp. 2735-2747.

Romero, María Carolina, El derecho internacional humanitario en el siglo xix”, Bogotá, Universidad Pontificia Javeriana, 2000.

Sánchez, David, “Ciencia ficción y derechos humanos: desde la complejidad, las tramas sociales y los condicionales contrafácticos”, Praxis, 64 (2010), p. 51.

Schmitt, Michael, The Impact of High and Low-Tech Warfare on the Principle of Distinction, Program on Humanitarian Policy and Conflict Research at Harvard UniversityBriefing Paper, noviembre de 2003.

Valencia Villa, Alejandro, Derecho internacional humanitario, conceptos básicos: infracciones en el conflicto armado colombiano, Bogotá, Editorial de la Universidad del Rosario, 2015.

Valencia Villa, Alejandro, La humanización de la guerra: derecho internacional humanitario y conflicto armado en Colombia, Bogotá, Ediciones UniAndes, 1991.

Valente, Luis Alberto, “La persona electrónica”,Revista Anales de la Facultad de Ciencias Jurídicas y Sociales, Universidad Nacional de La Plata, 49 (2019), p. 49. https://doi.org/10.24215/25916386e001

Vásquez, Gustavo,“Inteligencia artificial, historia, actualidad y desafíos futuros”, Revista de la Universidad Católica de Uruguay (2019), p. 90.

Vedross, Alfredo, Derecho internacional público, Editorial Paidós, 2005.

Zavala, Juan Carlos, “Amplitud del concepto de persona basada en aportes del México indígena”, Ciencia Ergo Sum, 23, 2 (2016), pp. 145-153.

Normatividad internacional

Convenios de Ginebra del 12 de agosto de 1949 para aliviar la suerte que corren los heridos y los enfermos de las Fuerzas Armadas en campaña (1949).

Convenios de Ginebra del 12 de agosto de 1949 para aliviar la suerte que corren los heridos y los enfermos de las Fuerzas Armadas en campaña, Artículo 3° Común (1949).

Protocolo I adicional a los Convenios de Ginebra de 1949, relativo a la protección de las víctimas de los conflictos armados internacionales (1977).

Protocolo II de 1977 adicional a los Convenios de Ginebra del 12 de agosto de 1949, relativo a la protección de las víctimas de los conflictos armados sin carácter internacional (1977).

Normatividad nacional

Ley 5 del 26 de agosto de 1960, por la cual se aprueba el Acta Final y los Convenios suscritos por la Conferencia Diplomática de Ginebra del 12 de agosto de 1949.

Ley 11 del 21 de julio de 1992, por medio de la cual se aprueba el Protocolo Adicional a los Convenios de Ginebra del 12 de agosto de 1949 relativo a la protección de las víctimas de los conflictos armados internacionales (Protocolo I), adoptado en Ginebra, el 8 de junio de 1977.

Ley 171 del 16 de diciembre 1994, por medio de la cual se aprueba el “Protocolo Adicional a los Convenios de Ginebra del 12 de agosto de 1949, relativo a la protección de las víctimas de los conflictos armados sin carácter internacional (Protocolo II), hecho en Ginebra el 8 de junio de 1977.

Otros documentos internacionales relevantes

Instituto Interamericano de Derechos Humanos, Manual de derechos humanos para las fuerzas armadas, 2004, p. 105.

Naciones Unidas, Informe del periodo de sesiones de 2019 del Grupo de Expertos Gubernamentales sobre las Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomos Letales, Ginebra, United Nations Office for Disarmament Affairs, 2019, p. 3.

Naciones Unidas, Proyectos de Artículos sobre responsabilidad del Estado por hechos internacionalmente ilícitos, 53° periodo de sesiones (dica, 56110) y anexado por la Asamblea General en su Resolución 56183, 2010.

Recomendación del Parlamento Europeo sobre el uso de los robots y personalidad electrónica (2015/2103(inl), 16 de febrero de 2017.