▷ Sabiduría mensual que puede leer en pocos minutos. Añada nuestra revista gratuita a su bandeja de entrada.

Armas Autónomas Letales

▷ Regístrate Gratis a Nuestra Revista

Algunos beneficios de registrarse en nuestra revista:

  • El registro te permite consultar todos los contenidos y archivos de Lawi desde nuestra página web y aplicaciones móviles, incluyendo la app de Substack.
  • Registro (suscripción) gratis, en 1 solo paso.
  • Sin publicidad ni ad tracking. Y puedes cancelar cuando quieras.
  • Sin necesidad de recordar contraseñas: con un link ya podrás acceder a todos los contenidos.
  • Valoramos tu tiempo: Recibirás sólo 1 número de la revista al mes, con un resumen de lo último, para que no te pierdas nada importante
  • El contenido de este sitio es obra de 23 autores. Tu registro es una forma de sentirse valorados.

Armas Autónomas Letales

Este elemento es una profundización de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema.

🙂 ▷ Ciencias Sociales y Humanas » Inicio de la Plataforma Digital » Z A » Armas Autónomas Letales
Las armas autónomas letales (LAWS, por sus siglas en inglés, Lethal Autonomous Weapons) son el resultado de la aplicar la inteligencia artificial a la búsqueda de soluciones en el ámbito del enfrentamiento militar; del combate. Así hay armas autónomas letales marinas o acuáticas (embarcaciones de superficie y submarinas), aéreas (drones autónomos que seleccionan por sí mismos los objetivos) y terrestres (algunos incluso con forma humana).

Por todo el mundo se extiende actualmente el miedo a que los artefactos de uso militar puedan en breve tomar sus propias decisiones sin el más mínimo control del hombre a la hora de elegir y abatir objetivos humanos.

Y no solo eso, sino que mediante procedimientos de aprendizaje artificial puedan alcanzar un estadio en que sean capaces de reevaluar sus objetivos emancipándose por completo del control de quienes los crearon y programaron.

“Podría llegar un momento en que los sistemas de armas autónomas letales se autodeterminaran. […] Como ocurre con Frankenstein, la criatura acaba rebelándose contra su creador y contra la comunidad” dice la profesora de Derecho Administrativo Roser Martínez Quirante, coautora junto con el profesor Joaquín Rodríguez Álvarez, del libro Inteligencia artificial y armas autónomas letales recién publicado.

Ante la creciente discusión internacional, el 25 de septiembre de 2018, el secretario general de la ONU, António Guterres, declaró ante la Asamblea General: “Digámoslo como es. La perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”. Lanzó la voz de alarma sobre unos avances tecnológicos que muchos especialistas consideran potencialmente más peligrosos que la tecnología nuclear y que del mismo modo podría destruir la raza humana si los sistemas armados se salieran de control o cayeran en malas manos. “Los robots asesinos son un gran peligro” y no contribuyen, a criterio de Guterres, a “garantizar la paz y la seguridad”.

Que sea la máquina mediante procedimientos autónomos la que elija los objetivos a abatir es el salto a lo desconocido que una gran parte de la humanidad parece no estar dispuesta a dar. La ONU trabaja para conseguir un tratado para su prohibición. (Tal vez sea de interés más investigación sobre el concepto).

Pormenores

Las armas autónomas letales plantean, según sus contrarios, problemas de muy diversa índole, pero principalmente para la propia supervivencia de la especie, así como conflictos de tipo ético y moral, además de colisionar con el derecho internacional y los derechos humanos.

Países como Israel, Francia, Rusia, Corea del Sur, el Reino Unido y Estados Unidos se han declarado contrarios a cualquier acuerdo planetario que vete la investigación y el desarrollo de armas autónomas letales. China, que hasta hace poco pertenecía al grupo de las naciones plenamente a favor de las armas autónomas letales, ahora parece que estaría dispuesta a firmar un futuro acuerdo bajo ciertas condiciones. La ONU prepara el camino para la redacción del futuro tratado internacional contra estas armas.

Ya hace varios años que existen sistemas de armas autónomas en los que la intervención del factor humano en la cadena de decisiones es baja o nula.Si, Pero: Pero se ha tratado hasta hace poco de sistemas únicamente defensivos. Se pueden citar aquellas instaladas en la paradójicamente denominada zona desmilitarizada entre Corea del Norte y del Sur, que cuentan con mecanismos de disparo automático cuando algo se mueve sobre el terreno, o por ejemplo, la llamada cúpula de hierro, que es como se denomina el sistema de misiles contra cohetes con que cuenta Israel para neutralizar los proyectiles que se lanzan desde Gaza contra posiciones judías. Los soldados que controlan el sistema de la cúpula de hierro solo vigilan que el sistema informático no falle; que no caiga, pero no tienen intervención alguna en el lanzamiento de los cohetes defensivos.

Los defensores de las armas autónomas letales esgrimen que el número de bajas propias en el combate podría reducirse en picado. Se trataría solo de pérdidas materiales, pero no humanas. Incluso se dice que los procesos algorítmicos llegarían a ser lo suficientemente certeros como para reducir daños humanos colaterales.

Puntualización

Sin embargo, para la corriente mundial (o global) contraria a estas nuevas tecnologías desarrolladas por la industria militar, no hay nada en los planteamientos anteriores que no sea fácilmente rebatible. “La vida no es un bit de información. (Tal vez sea de interés más investigación sobre el concepto). Hay que tratarla con dignidad”, proclama la profesora Roser Martínez.

No hay estudios que demuestren por el momento que no puedan ocurrir errores con estos sistemas, que se pueda tener una fe ciega en la tecnología. ¿O es que acaso no ha habido ya desgracias con armas supuestamente guiadas que han acabado haciendo blanco en un objetivo equivocado?, se preguntan desde organizaciones internacionales como los promotores de la campaña mundial (o global) Stop Killer Robots (stopkillerrobots.org), destinada a concienciar a la opinión pública y los estados de lo que consideran los peligros de estos sistemas autónomos letales. Entre las últimas reclamaciones de sus impulsores está la de pedir a los países miembros de la UE que presten atención a la resolución aprobada el mes pasado por el Parlamento Europeo en que instaba la apertura de “negociaciones internacionales sobre un instrumento legalmente vinculante que prohíba los sistemas de armas autónomos letales”.

Siguiendo el supuesto de sustitución del combatiente por un robot, en el mejor de los casos podría llegar a darse la situación de que se enfrentaran dos ejércitos de máquinas.Entre las Líneas En el peor de los supuestos, entrarían en combate un ejército de robots y otro de seres humanos y eso tampoco es descartable. No todos los países podrán costearse unas fuerzas armadas robotizadas. “Además, las máquinas no tienen compasión”, matiza el profesor Joaquín Rodríguez.

Siguiendo este mismo razonamiento, los defensores de las armas autónomas letales afirman que, del mismo modo, los robots tampoco tendrían miedo ni serían presa de un ataque de histeria, ni sentirían deseos de venganza.

En el debate internacional, se vuelcan más interrogantes: ¿Qué ocurriría si un grupo de piratas informáticos se hicieran con el control del sistema de forma intrusiva y fijaran nuevos parámetros de ataque para los robots?

¿Quién se haría cargo de las fechorías que pudieran cometer las máquinas? No puede establecerse con claridad quién pagaría el error de un robot que asesinara, por ejemplo, a una niña de 10 años. Los estados podrían excusarse en un fallo técnico para evitar rendir cuentas por crímenes de guerra (la Convención sobre la imprescriptibilidad de los crímenes de guerra y de los crímenes de lesa humanidad fue adoptada en Nueva York, el 26 de noviembre de 1968 por la Asamblea General en su resolución 2391 (XXIII) y entró en vigor el 11 de noviembre de 1970, de conformidad con el artículo VIII; véase también la información sobre los delitos o crímenes de lesa humanidad y acerca de los crímenes contra la humanidad).

▷ En este Día de 24 Abril (1877): Guerra entre Rusia y Turquía
Al término de la guerra serbo-turca estalló la guerra entre Rusia y el Imperio Otomano, que dio lugar a la independencia de Serbia y Montenegro. En 1878, el Tratado Ruso-Turco de San Stefano creó una “Gran Bulgaria” como satélite de Rusia. En el Congreso de Berlín, sin embargo, Austria-Hungría y Gran Bretaña no aceptaron el tratado, impusieron su propia partición de los Balcanes y obligaron a Rusia a retirarse de los Balcanes.

España declara la Guerra a Estados Unidos

Exactamente 21 años más tarde, también un 24 de abril, España declara la guerra a Estados Unidos (descrito en el contenido sobre la guerra Hispano-estadounidense). Véase también:
  • Las causas de la guerra Hispano-estadounidense: El conflicto entre España y Cuba generó en Estados Unidos una fuerte reacción tanto por razones económicas como humanitarias.
  • El origen de la guerra Hispano-estadounidense: Los orígenes del conflicto se encuentran en la lucha por la independencia cubana y en los intereses económicos que Estados Unidos tenía en el Caribe.
  • Las consecuencias de la guerra Hispano-estadounidense: Esta guerra significó el surgimiento de Estados Unidos como potencia mundial, dotada de sus propias colonias en ultramar y de un papel importante en la geopolítica mundial, mientras fue el punto de confirmación del declive español.

Autor: Cambó

Armas autónomas: posición de los Científicos

En julio de 2015, se leyó la siguiente carta abierta de investigadores en Inteligencia Artificial y Robótica
en la apertura de la 24 International Joint Conference on Artificial Intelligence (IJCAI) que se celebraba entonces en Buenos Aires.

En ella se pide la prohibición de las armas autónomas de ataque sin control humano significativo, y se advierte de que estamos a pocos años de poder despegar sistemas autónomos en el campo de batalla, lo que algunos expertos han descrito como la tercera revolución en sistemas de guerra, tras la pólvora y las armas nucleares.

Este es el texto, traducido del original en inglés:

“Armas autónomas: carta abierta de investigadores en Inteligencia Artificial y Robótica.

Las armas autónomas seleccionan y atacan objetivos sin intervención humana. Incluyen, por ejemplo, multicópteros capaces de encontrar y eliminar personas que posean criterios predefinidos pero no incluyen los misiles de crucero o los drones manejados por control remoto, ya que tras ellos hay humanos que toman decisiones. La Inteligencia Artificial (AI) ha alcanzado un punto en que el despliegue de este tipo de sistemas será factible (técnica y quizá también legalmente) en pocos años, no en decenios, y hay mucho en juego: las armas autónomas se han calificado como la tercera revolución en sistemas de guerra, tras la pólvora y las armas nucleares.

Se ha argumentado mucho a favor y en contra de las armas autónomas, por ejemplo señalando que la sustitución de soldados humanos por máquinas reduce las bajas, pero también que reduce el umbral para desencadenar una batalla. La pregunta crucial para la humanidad es si empezar una carrera armamentística global de AI o evitar que se inicie.

Si una potencia militar impulsa el desarrollo de las armas AI, es inevitable esa carrera armamentística, y el destino de dicha trayectoria tecnológica es obvio: las armas autónomas serán los Kalashnikovs del mañana.

A diferencia de las armas nucleares, no requieren materias primas caras o escasas, así que serán unas armas ubicuas y producidas en masa para cualquier poder militar. Solo será cuestión de tiempo que aparezca un mercado negro y que estén en manos de terroristas, de dictadores con ansias de aumentar el control sobre la población, de señores de la guerra con la intención de perpetrar limpiezas étnicas…

Pormenores

Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimiento de poblaciones y asesinato selectivo de miembros de un determinado grupo étnico. Por eso creemos que una carrera militar de armas AI no puede ser beneficiosa para la humanidad. Hay muchas formas en que la AI puede hacer que los campos de batalla sean más seguros para las personas, especialmente para los civiles, sin crear muevas herramientas para matar.

De la misma manera que la mayoría de químicos y biólogos no están interesados en el desarrollo de armas químicas o biológicas. la mayoría de investigadores en AI no lo están en construir armas AI ni en que otros lo hagan, desacreditando su campo de trabajo y creando una corriente pública contra la AI que cortaría el acceso a futuros beneficios para la sociedad. De hecho, químicos y biólogos han apoyado masivamente los acuerdos internacionales (ver su concepto, así como tratado internacional, acuerdo internacional administrativo, acuerdo internacional medioambiental, acuerdo internacional no normativo, y acuerdo internacional sobre el transporte de mercancías perecederas o acuerdo ATP) que han conducido a la prohibición de armas químicas y biológicas, al igual que la mayoría de físicos ha apoyado los tratados de prohibición de armas espaciales nucleares y armas cegadoras láser.

En resumen, creemos que la AI tiene un enorme potencial para beneficiar a la humanidad de muchas maneras, y que ese debe ser el propósito de este campo de estudio. El comienzo de una carrera armamentística AI es una mala idea, y debe ser impedido por la prohibición de las armas autónomas de ataque sin control humano significativo”.

Conferencias

Basados ​​en las tendencias en el avance de la tecnología robótica, muchos expertos creen que los robots autónomos, e incluso letales, son un desarrollo inevitable e inminente. Si bien las capacidades de las tecnologías futuras siguen siendo inciertas debido a la complejidad de la tarea a ejecutar y al entorno en el que opera esa tecnología, es bastante claro que muestra las características humanas necesarias para cumplir con los principios legales internacionales humanitarios de necesidad y proporcionalidad. —Como un llamado o preocupación de una fracción de segundo por la humanidad— representa un desafío formidable para las armas totalmente autónomas.

Como resultado, muchos expertos, estados y grupos de interés, incluida la coalición internacional Campaign to Stop Killer Robots, han abogado por un límite para el desarrollo de sistemas de armas autónomas letales (LAWS). Desde el 16 de noviembre de 2017, veintidós países han pedido la prohibición de LEYES; Ni Estados Unidos ni el Reino Unido se han unido a esta convocatoria. El verano pasado, las empresas de tecnología siguieron su ejemplo, y los directores ejecutivos, incluido Elon Musk, firmaron una Carta Abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Químicas. Esta carta advirtió que las LEYES “[t] tratan de convertirse en la tercera revolución en la guerra”. Notando que “[no] tenemos mucho tiempo para actuar”, las compañías de tecnología de inteligencia artificial y robótica advirtieron que “una vez desarrolladas, [LEYES] permitir que los conflictos armados se luchen a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender “.

En diciembre de 2016, la Quinta Conferencia de Revisión de las Altas Partes Contratantes de la CCW decidió establecer un Grupo de Expertos Gubernamentales (GGE) sobre LEYES. A partir de noviembre 13 a 17 2017, las Naciones Unidas celebró su primera reunión de la Convención sobre Ciertas Armas Convencionales (CCAC) Grupo de Expertos Gubernamentales sobre armas letales autónomas Sistemas; la segunda reunión tendrá lugar del 9 al 13 de abril. El mandato del GGE es examinar las tecnologías emergentes en el área de LEYES, en el contexto de los objetivos y propósitos de la CCW, y con vistas a la identificación de las reglas y principios aplicables a tales sistemas de armas.

Esta publicación cubre el estado actual de LAWS, que resume los desarrollos técnicos y legales, así como el primer GGE en LAWS, que se centró en cuatro dimensiones de LAWS: técnica; militar; legales y eticos; y transversal. La publicación concluye con lo que debe esperar en el segundo GGE sobre LEYES, que comienza el 9 de abril.

¿Qué son los sistemas letales de armas autónomas?

Aunque los estados no han acordado una definición de LAWS, el Comité Internacional de la Cruz Roja (CICR) ha definido “sistemas de armas autónomas” como “un sistema de armas con autonomía en sus funciones críticas, es decir, un sistema de armas que puede seleccionar (es decir, buscar o detectar, identificar, rastrear, seleccionar) y atacar (es decir, usar la fuerza contra, neutralizar, dañar o destruir) objetivos sin intervención humana “. Cuando la Oficina de Inteligencia Técnica del Departamento de Defensa de EE. UU. consultó la investigación actual y oportunidades de desarrollo en torno a un aumento de la autonomía tecnológica, el Departamento de Defensa identificó de manera similar tres campos técnicos multidisciplinarios en los que se basa la autonomía: percepción, conocimiento y acción.

Estado actual del desarrollo

En un informe de la reunión de expertos del CICR de 2014, Sistemas de armas autónomas: aspectos técnicos, militares, legales y humanitarios, se identifican los sistemas de armas defensivas a bordo y en tierra y los sistemas de armas fijas como ejemplos de sistemas de armas autónomos actualmente en uso. Estos sistemas de armas operan en roles estacionarios, con diferentes grados de supervisión humana. Según el editor colaborador de Lawfare y el investigador principal del Instituto Internacional de Ciencias de la Computación, Nicholas Weaver, las armas autónomas no son una “amenaza hipotética mañana”, sino más bien “una amenaza real hoy”.

Observación

Además de discutir cómo se vería diseñar y fabricar tales armas, Weaver también señala las formas en que los carteles de la droga han comenzado a producirLos vehículos aéreos no tripulados armados (UAV), y el Estado Islámico, han comenzado a adaptar los drones comerciales a los bombarderos. El CICR señala que “los sistemas de armas existentes, incluidos los aviones tripulados y los sistemas de armas defensivas, están equipados con capacidades rudimentarias para distinguir [sic] objetos simples en entornos de” poco desorden (trastorno) “, relativamente predecibles y estáticos”.

La estrategia US Third Offset es fundamental para el enfoque de EE. UU.Entre las Líneas En el desarrollo de LAWS. La estrategia de Tercera compensación es un esfuerzo por enfocar la innovación del DoD en los medios para compensar los avances de competidores cercanos, lo que permite a los EE. UU. Mantener su dominio militar. Mientras que la primera y la segunda estrategias de compensación se desarrollaron para contrarrestar la superioridad convencional soviética (la Estrategia New Look del presidente Eisenhower a principios de la década de 1950) y la superioridad nuclear soviética (el Secretario de Defensa Harold Brown y la Estrategia de compensación del Secretario Adjunto de Defensa William Perry en la década de 1970) La estrategia está más enfocada en mantener la actual ventaja competitiva de los Estados Unidos y sus aliados militares. El ex subsecretario de Defensa, Robert Work, ha dichoesto de la Tercera estrategia de compensación del DoD: “Básicamente, la hipótesis de que los avances en inteligencia artificial y autonomía (sistemas autónomos) conducirá a una nueva era de colaboración hombre-máquina y equipo de combate”. El trabajo ha identificado aún más cinco claves áreas de desarrollo en las que se enfoca la Tercera estrategia de compensación: 1) sistemas de aprendizaje autónomos (“máquinas de aprendizaje”); 2) toma de decisiones colaborativa hombre-máquina; 3) operaciones humanas asistidas; 4) operaciones avanzadas de sistemas tripulados y no tripulados (“equipos de combate hombre-máquina”); y 5) armas autónomas habilitadas para la red y proyectiles de alta velocidad.Entre las Líneas En marzo de 2017, el Centro de Estudios Estratégicos e Internacionales elaboró este informe evaluando la Tercera Estrategia de compensación.

Marco legal

Si bien ninguna ley existente aborda específicamente LEYES, la Corte Internacional de Justicia dejó claro en su Opinión Consultiva sobre la Legalidad de la Amenaza o Uso de Armas Nucleares de 1996 que el derecho internacional humanitario “elimina la ley completa del conflicto armado y se aplica a todos “formas de guerra y para todo tipo de armas, las del pasado, las del presente y las del futuro”. Como tal, la Convención de la ONU sobre Ciertas Armas Convencionales es un foro apropiado en el que los estados pueden tratar de cambiar el marco legal. sobre las leyes.

La CCW, conocida oficialmente como la Convención sobre prohibiciones o restricciones del uso de ciertas armas convencionales que pueden considerarse excesivamente nocivas o de efectos indiscriminados, concluyó en Ginebra en octubre de 1980 y entró en vigor en diciembre de 1983. La CCW se adoptó con el fin de restringir las armas “consideradas que causan sufrimiento innecesario o injustificable a los combatientes o que afectan a los civiles de manera indiscriminada”. Si bien los Protocolos de la CCW originalmente solo se aplicaban a los conflictos armados internacionales, desde la Segunda Conferencia de Examen en 2001, el ámbito de aplicación de la CCW ha sido ampliadoaplicar en conflictos armados no internacionales también.

Basado en la experiencia de varios autores, mis opiniones y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características y el futuro de esta cuestión):

Observación

Además de regular el comportamiento durante el conflicto armado, los Protocolos II y V, específicamente, requieren que las partes en un conflicto tomen medidas específicas después del conflicto para reducir los peligros que representan las minas, las trampas explosivas y otras formas de artefactos explosivos sin explotar y abandonados.

Una de las características más importantes de la CCW es su capacidad para ampliarse en respuesta al desarrollo de nuevas armas al permitir que los estados parte adjunten protocolos a la Convención. (Tal vez sea de interés más investigación sobre el concepto). Cinco protocolos: Protocolo I (fragmentos no detectables); Protocolo II enmendado (minas, trampas explosivas, otros dispositivos); Protocolo III (Armas incendiarias); Protocolo IV (armas láser cegadoras); y el Protocolo V (Restos de guerra explosivos): actualmente se anexan a la CAC. La adición de estos protocolos significa que la CCW cubre fragmentos no detectables, minas terrestres, trampas explosivas, armas incendiarias, armas láser cegadoras y la remoción de restos explosivos de guerra.

En particular, EE. UU. No es parte en el Protocolo II, y presentó una reserva de 2009 al Protocolo III, reservando “el derecho de usar armas incendiarias contra objetivos militares ubicados en concentraciones de civiles donde se considera que dicho uso causaría menos víctimas y / o o menos daños colaterales que las armas alternativas ”. Según la coordinadora de Campaign to Stop Killer Robots, Mary Wareham, muchos rechazaron esta reserva por ser incompatible con el objeto y propósito de la CCW.

Un enfoque propuesto para el tema de cómo los responsables políticos, los abogados, las fuerzas armadas, etc. deberían conceptualizar la responsabilidad por la autonomía técnica en relación con la guerra son los algoritmos de guerra. Dustin Lewis, Naz Modirzadeh y Gabriella Blum del Programa de Derecho de la Escuela de Derecho de Harvard sobre Derecho Internacional y Conflictos Armados, defina un algoritmo de guerra como “un algoritmo ny que se expresa en código de computadora, que se efectúa a través de un sistema construido y que es capaz de operar en relación con el conflicto armado”. Lewis, Modirzadeh y Blum rinden cuentas de algoritmo de guerra de cuentas en la responsabilidad estatal por un hecho internacionalmente ilícito, en la responsabilidad individual según el derecho internacional por delitos internacionales, y en gobiernos, industrias y otras formas más amplias de control, monitoreo y regulación. (Tal vez sea de interés más investigación sobre el concepto). Los complejos sistemas algorítmicos sustentan cada vez más aspectos de la guerra, incluso en la navegación y utilización de vehículos marítimos, aéreos y terrestres no tripulados; en producir estimaciones de daños colaterales; en el despliegue de sistemas de misiles “dispara y olvida”; en el uso de sistemas estacionarios (por ejemplo, sistemas de armas cercanas); y en el diseño de operaciones cibernéticas que sean capaces de producir efectos cinéticos.Si, Pero: Pero el enfoque de la responsabilidad del algoritmo de guerra también se basa en la forma en que los procedimientos computacionales pueden dar forma a muchos otros elementos de la guerra, como en la asignación de ayuda humanitaria; en la determinación de quién puede ser privado de libertad (y por cuánto tiempo); e incluso en la prestación de asesoramiento jurídico a las fuerzas armadas. Para aprender más sobre los algoritmos de guerra, vea sus informe, así como las publicaciones de Lawfare sobre el tema aquí, aquí y aquí. El último enlace incluye una discusión del ” Equipo de funciones cruzadas de la guerra algorítmica del Pentágono”.

Primera reunión de CCW GGE

La ONU celebró su primera reunión del Grupo de expertos gubernamentales sobre sistemas de armas autónomas letales del 13 al 17 de noviembre, sobre la base de las discusiones de tres reuniones informales anteriores de expertos. El embajador Amandeep Singh Gill, de India, presidió la reunión, antes de la cual presentó este documento de reflexión. (Tal vez sea de interés más investigación sobre el concepto). El GGE escuchó presentaciones en paneles relacionados con las diferentes dimensiones del debate de LEYES: 1) Dimensión tecnológica; 2) Dimensión de efectos militares; 3) Dimensiones legales / éticas; 4) Temas transversales. La ONU publicó un informe de los procedimientos el 22 de diciembre de 2017. El siguiente resumen de la reunión contiene información encontrada en el informe de la ONU, la agenda de la reunión e informes producidos por elEl programa Reaching Critical Will de la Liga Internacional de Mujeres por la Paz y la Libertad (WILPF).

Intercambio general de opiniones

El 13 de noviembre y el 15 de noviembre, el GGE celebró reuniones que incluyeron un “intercambio general de opiniones”.Entre las Líneas En el informe de la reunión del 13 de noviembre, la ONG Reaching Critical Will destaca la discrepancia entre la forma en que casi todos los participantes expresaron su preocupación por las LEYES, pero solo veintidós estados han expresado hasta ahora su disposición y deseo de prohibir preventivamente su desarrollo y despliegue. Como Francia y Alemania sugirieron en su documento de trabajo, una de las maneras en que los estados podrían enfrentar los desafíos planteados por el desarrollo potencial de LEYES sería crear una declaración política que afirme el deseo del Estado parte de mantener el control humano con respecto a la fuerza letal. Según el informe de CCW de Reaching Critical Will, la UE, Bélgica, España y Suiza indicaron apoyo preliminar para tal declaración política. Aun así, la UE, además de Australia y Camboya, prefiere fomentar revisiones nacionales de armas transparentes, que a su vez podrían permitir a los estados intercambiar información y las mejores prácticas derivadas de esas revisiones.

Un entendimiento común entre la mayoría de los estados que participaron en el intercambio de opiniones del 13 de noviembre fue la importancia de mantener el control humano sobre los sistemas de armas, incluido el control tanto de la selección como del compromiso de los objetivos. Otro riesgo general destacado por varios países incluyó el de la proliferación, y tal vez incluso una carrera armamentista autónoma.

Cubriendo la reunión del 15 de noviembre, alcanzando notas de voluntad crítica que las opiniones sobre las definiciones de la tecnología o los sistemas siguieron siendo diferentes. Por ejemplo, Argentina instó a la adopción de una definición precisa e inequívoca, mientras que el Comité Internacional para el Control de Armas Robóticas sugirió definir las LAWS como “sistemas de armas que una vez lanzados pueden seleccionar objetivos y aplicar fuerza violenta sin un control humano significativo”. de acuerdo en el hecho de que el DIH proporciona el marco más apropiado para guiar las decisiones legales sobre el desarrollo o el uso de LAWS, las inquietudes sobre el cumplimiento del DIH llevaron a una discusión sobre los niveles de control humano. Algunos estados han comenzado a esbozar una política sobre la naturaleza del control humano, y el Reino Unido afirma que la autoridad humana siempre es necesaria para la decisión de atacar.

Estados como Argelia, Egipto y China, junto con organizaciones como la Campaña para detener a los robots asesinos, Human Rights Watch y Mines Action Canada consideran que el control humano significativo es incompatible con las LEYES.

Una Conclusión

Por lo tanto, apoyaron la prohibición del desarrollo y uso de LEYES. Estados como Israel, Rusia, Turquía, el Reino Unido y los EE. UU. Se oponen a dicha prohibición, y EE. UU. Y el Reino Unido indican que es “demasiado pronto” para apoyar una prohibición. (Tal vez sea de interés más investigación sobre el concepto). Estados como Finlandia, Israel, Suecia, el Reino Unido y los Estados Unidos argumentaron que las revisiones de armas nacionales son la mejor manera de lidiar con las LEYES.Entre las Líneas En contraste, China sostuvo que, si bien las revisiones nacionales son ventajosas, el trabajo multilateral es necesario.

Aspectos técnicos

El 13 de noviembre, el GGE celebró su panel sobre los aspectos técnicos de LEYES. Mientras que el resumen del panel de la ONU enfatiza que “[l] a logro de AI ‘fuerte’ o general no es tan cercano como muchos creen”, la ONG Reaching Critical Will subraya la diferenciación del panel entre la ingeniería de armas autónomas y la codificación real De esas armas con juicios humanos.Entre las Líneas En esencia, todavía es demasiado difícil tecnológicamente acoplar la inteligencia artificial (IA) y los sistemas físicos autónomos; por lo tanto, por ahora, los únicos sistemas de armas autónomos que se pueden construir son los “estúpidos”. Como hay más riesgos por “máquinas tontas” y fallas en la interacción hombre-máquina que por “máquinas inteligentes” que pueden superar a los humanos, la participación humana es clave para enfrentar los riesgos con LAWS.

La sesión sobre dimensiones tecnológicas de LEYES destacada.Seis expertos de la industria y del mundo académico. La profesora Margaret Boden, de la Universidad de Sussex, enfatizó que, incluso dentro de 50 años, los robots no podrán ser seres morales o éticos. El profesor Gary Marcus, de la Universidad de Nueva York, subrayó cómo los sistemas de inteligencia artificial todavía no pueden manejar (gestionar) situaciones anómalas o el sentido común. El Sr. Gautam Shroff, de Tata Consultancy Services, India, expresó su preocupación por la confusión entre la IA y los sistemas de TI, señalando que los sistemas de la IA no se pueden “depurar” de la misma manera. El Sr. Harmony Mothibe, de BotsZa, Sudáfrica, habló sobre los desafíos relacionados con el grado de interpretación en el procesamiento de idiomas. El profesor Stuart Russell, de la Universidad de California, Berkley, destacó simultáneamente los beneficios positivos de AI y advirtió contra el desarrollo de LEYES, Especialmente con respecto a la viabilidad de su cumplimiento con el derecho internacional. El Sr. Sean Legassick, de DeepMind, observó que el nivel de control humano sobre LAWS debe ser lo suficientemente alto como para que coincida con el daño potencial causado por LAWS.

Las delegaciones también discutieron la dimensión tecnológica de LAWS durante una discusión interactiva el 15 de noviembre. Durante esta discusión, los estados expresaron diferentes puntos de vista sobre si las LEYES existen o podrían existir en el futuro inmediato.

Efectos militares

El GGE celebró su panel sobre los efectos militares de LAWS el 14 de noviembre. El resumen del panel de la ONU enumera una serie de aplicaciones militares de tecnologías relacionadas con las leyes. Estos incluyen: la mejora de la eficiencia del combate, la reducción de la carga física y cognitiva para los soldados y comandantes, la reducción de costos (o costes, como se emplea mayoritariamente en España) (o costes, como se emplea mayoritariamente en España) y la ampliación del área y la profundidad de las operaciones de combate. Dichas aplicaciones militares podrían ser deseables desde una perspectiva del DIH, posiblemente permitiendo menos daños colaterales, el uso de fuerza no letal para la protección de la fuerza y ​​una mejor discriminación entre civiles y combatientes. Aun así, existen límites para las aplicaciones de la inteligencia artificial al dominio militar, incluida la forma en que ciertas tareas, como la del soldado de infantería, no pueden ser reemplazadas por la automatización. (Tal vez sea de interés más investigación sobre el concepto). Alcanzando notas de Voluntad Crítica La discusión del panel es uno de los temas más cruciales que se debaten: el grado en que las LEYES que operan fuera del “control humano significativo” pueden cumplir con el DIH.

El panel sobre efectos militares de LEYES contó conSeis expertos en esa dimensión del desarrollo de armas. El brigadier Patrick Bezombes, de Francia, dividió los sistemas automatizados en cuatro niveles, y cada nivel subsiguiente se movió más allá del comando y control humano: 1) teleoperado, 2) supervisado, 3) semiautónomo y 4) autónomo. Al explicar que las tecnologías de los tres primeros niveles ya están desarrolladas y desplegadas por muchos países, Bezombes recomendó que el Grupo se centre en armas totalmente autónomas. El profesor Heigo Sato, de la Universidad de Takushoku, Tokio, argumentó que, independientemente de cómo los estados decidan lidiar con el desarrollo o la prohibición de LEYES de forma individual, todos tendrán que lidiar con los aspectos políticos y militares interdependientes de las LEYES, como las diferencias. entre los objetivos y las doctrinas militares y el control de doble uso y la gestión de la proliferación. (Tal vez sea de interés más investigación sobre el concepto). El teniente coronel Alan Brown, del Ministerio de Defensa del Reino Unido, declaró que el “horror moral” sobre una brecha de responsabilidad basada en la delegación de la agencia a las máquinas es inexacto; los humanos son responsables en el contexto actual, y serían responsables si se toman decisiones incorrectas. También afirmó que un proceso de revisión de armas es la mejor forma de realizar una evaluación de LEYES. El Dr. David Shim, del Instituto KAIST de Robótica, República de Corea, sugirió programar un proceso en LEYES mediante el cual los humanos puedan determinar por qué se tomaron ciertas decisiones. El teniente coronel Christopher Korpela, de la Academia Militar de West Point, afirmó los beneficios operacionales y humanitarios de los sistemas autónomos. La Sra. Lydia Kostopoulos, de la Universidad de Defensa Nacional, expuso un enfoque de tres partes para los conductores de armas autónomas:

Las delegaciones también discutieron la dimensión militar de las LEYES durante una discusión interactiva el 15 de noviembre. Por un lado, hubo un discurso sobre las ventajas militares potenciales que pueden resultar de las tecnologías semiautónomas y el trabajo en equipo de la máquina humana.

Otros Elementos

Por otro lado, se discutieron las posibles consecuencias negativas para la seguridad de las LEYES, así como la indeseabilidad militar de las armas que están más allá del control humano.

Dimensiones legales y éticas.

También el 14 de noviembre, el GGE celebró su panel sobre las dimensiones legales y éticas de las LEYES. El resumen de la ONU muestra cómo respetar los principios del DIH, como la distinción, la proporcionalidad y la precaución, requiere un nivel mínimo de control y supervisión humanos, incluida la capacidad de intervenir después de la activación de armas. El GGE también exploró la necesidad potencial de estándares de previsibilidad y confiabilidad para las armas con autonomía en sus funciones críticas. La definición de autonomía de trabajo del CICR se centra en el grado de participación humana, específicamente en la autonomía en las funciones críticas de selección y focalización. (Tal vez sea de interés más investigación sobre el concepto). El CICR planea actualizar su guía sobre las revisiones del Artículo 36 (el Artículo que obliga a la revisión de la legalidad de las nuevas armas es el Artículo 36 del Primer Protocolo Adicional a los Convenios de Ginebra); Esta guía estará disponible en 2018.

La sesión sobre las dimensiones legales y éticas de las LEYES presentada.Seis expertos de la industria y del mundo académico. La Sra. Kathleen Lawand, del CICR, señaló que las revisiones de armas nacionales son cruciales, pero no necesariamente suficientes, para tratar los problemas legales planteados por las LEYES. También expuso la propuesta del CICR para una definición de trabajo de los sistemas de armas autónomas, que son armas con autonomía en sus funciones críticas de selección y ataque de objetivos. Lawand enfatizó que el cumplimiento del DIH requiere un vínculo directo entre la decisión del operador humano y el resultado del ataque. La Sra. Marie-Hélène Parizeau, de la Comisión Mundial sobre la Ética del Conocimiento Científico y la Tecnología, UNESCO, comunicó que la responsabilidad moral de tomar vida humana no puede ser delegada a un arma, ya que eso violaría la dignidad humana y devaluaría la vida humana. El profesor Xavier Oberson, de la Universidad de Ginebra, sostuvo que, dado que LAWS no tienen personalidad jurídica, sería necesario desarrollar una “cadena de responsabilidad” desde la producción hasta el uso del arma para procesar su uso indebido. El Sr. Lucas Bento, abogado de Quinn Emanuel Urquhart & Sullivan y presidente de la Asociación de Abogados de Brasil y Estados Unidos, expresó que la conversación debería pasar de los términos de “autonomía” y “letalidad” a los de “inteligencia” y “violencia”. El profesor Bakhtiyar Tuzmukhamedov, de la Academia Diplomática de la Federación Rusa, argumentó que sin una definición de LEYES, los estados no están listos para un instrumento legalmente vinculante. El profesor Dominique Lambert, de la Universidad de Namur, argumentó que, para preservar un “principio de autoconsistencia antropológica,

Las delegaciones también discutieron las dimensiones legales y éticas de las LEYES durante una discusión interactiva el 15 de noviembre. Durante esta discusión, las delegaciones reafirmaron que el DIH se aplica a las LEYES, y que los estados y los seres humanos tienen la máxima responsabilidad legal por su uso.

Dimensiones transversales

Finalmente, el 17 de noviembre, el GGE celebró su panel sobre las dimensiones transversales de LAWS. El resumen de la ONU explica cómo la IA verdadera tiene tres componentes: 1) aprendizaje automático; 2) la capacidad de entender el lenguaje natural; y 3) la capacidad de interactuar con los seres humanos de manera humana.Entre las Líneas En relación con esto, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) en realidad considera que el término “IA” es engañoso, y prefiere el uso de “sistemas autónomos inteligentes”. Concepto de diseño ético. El resumen de la ONU enfatiza aún más la necesidad de examinar si una vulnerabilidad en un arma autónoma podría ser remendada remotamente, si el arma tendría que ser recordada, o si un operador podría confiar en algún mecanismo a prueba de fallas.

El camino por delante

El GGE mantuvo su discusión sobre el camino a seguir el 16 de noviembre. Las delegaciones apoyaron la continuación del Grupo en 2018 y enfatizaron que el trabajo futuro debería centrarse en desarrollar una comprensión compartida de las características relacionadas con las LEYES, así como las medidas prácticas para mejorar el cumplimiento de ley internacional. Alcanzando notas de Voluntad Críticaque China, Japón, Letonia, la República de Corea, Rusia y los Estados Unidos no querían considerar resultados tangibles en el momento de la conferencia. Las delegaciones expresaron opiniones divergentes sobre la búsqueda de una declaración políticamente vinculante, un código de conducta o un grupo técnico de expertos en LEYES. Hubo opiniones igualmente divergentes sobre la búsqueda de un instrumento jurídicamente vinculante. El Movimiento de Países No Alineados, Argelia, Argentina, Brasil, Chile, Costa Rica, Cuba, Nicaragua, Pakistán, Palestina, Panamá, Perú, Sri Lanka y Uganda apoyan un instrumento legalmente vinculante sobre LAWS.

Conclusiones y Recomendaciones

El CCW GGE reafirmó que el DIH se aplica completamente a todos los sistemas de armas, y que la responsabilidad del despliegue de cualquier sistema de armas en un conflicto armado recae en los estados. Teniendo en cuenta que los sistemas autónomos inteligentes se desarrollan para fines tanto civiles como militares, el Grupo afirmó que su mandato no debería obstaculizar el progreso o el acceso a la investigación y el desarrollo civiles y el uso de sistemas autónomos inteligentes. El GGE sugirió que la próxima reunión se centre en la caracterización de los sistemas bajo consideración para promover un entendimiento común de los conceptos necesarios para el objetivo y propósito de la CCW. Sugirió un mayor enfoque en los aspectos de la interacción hombre-máquina en el desarrollo, despliegue y uso de LAWS.

Llamadas para limitar el desarrollo.

Aunque las mentes razonables pueden diferir en cuanto a si un aumento en la autonomía de las armas letales tendrá un efecto positivo en la guerra, incluyendo, potencialmente, una reducción en las bajas civiles, la mayoría de los grupos de interés parece favorecer la interrupción en el desarrollo de este tipo de tecnología. Un ejemplo de la polarización sobre el desarrollo fue un debate en mayo de 2014 entre Ronald Arkin, profesor y robotista de Georgia Tech, y presidente del Comité Internacional para el Control de Armas Robot, Noel Sharkey, en una reunión informal de expertos de la ONU sobre LEYES. Mientras que Sharkey ha expresado su preocupación por la capacidad de LAWS para cumplir con el DIH y argumentó que las armas deben permanecer bajo un control humano significativo, Arkin sostiene quepara que, si se implementa adecuadamente, las LEYES “pueden ayudar con la difícil situación de los inocentes no combatientes atrapados en el campo de batalla”. Para obtener más información sobre las ventajas y desventajas percibidas de las LEYES, consulte este informe de Revisión Militar.

En abril de 2013, las preocupaciones sobre el daño ilegal que representan las LEYES llevaron a varias ONG a lanzar la Campaña para detener a los robots asesinos. Esta coalición internacional trabaja para prohibir de manera preventiva el desarrollo, la producción y el uso de armas totalmente autónomas. Para lograr tal prohibición preventiva, la Campaña para detener a los robots asesinos aboga por una serie de posibles soluciones, incluido un tratado internacional, leyes nacionales y otras medidas, y una implementación del Relator Especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, Chrisof Heyns ‘, recomendaciones derivadas de su informe de 2013 sobre robots autónomos letales. Si bien el artículo 36 del Protocolo adicional I a los Convenios de Ginebra exige revisiones de armas, la Campaña para detener a los robots asesinos cree quetales revisiones son insuficientes para abordar todos los desafíos planteados por LAWS. Otras ONG notables que hacen campaña por una prohibición son Human Rights Watch, el Comité Internacional de Control de Armas Robóticas (ICRAC) y el Artículo 36.

Segunda Reunión de CCW GGE

La primera reunión de 2018 se llevará a cabo del 9 al 13 de abril, y la segunda reunión de 2018 se llevará a cabo del 27 al 31 de agosto. Los temas que se abordarán en la primera reunión incluyen:

  • Caracterización de los sistemas bajo consideración para promover un entendimiento común sobre conceptos y características relevantes para los objetivos y propósitos de la Convención;
  • Consideración adicional del elemento humano en el uso de la fuerza letal; aspectos de la interacción hombre-máquina en el desarrollo, despliegue y uso de tecnologías emergentes en el área de los sistemas letales de armas autónomas;
  • Revisión de aplicaciones militares potenciales de tecnologías relacionadas en el contexto del trabajo del Grupo; y
  • Posibles opciones para abordar los desafíos humanitarios y de seguridad internacional planteados por las tecnologías emergentes en el área de los sistemas de armas autónomos letales en el contexto de los objetivos y propósitos de la Convención sin perjudicar los resultados de las políticas y teniendo en cuenta las propuestas pasadas, presentes y futuras.

Seis documentos de trabajo se han presentado antes de la GGE de 2018 en LEYES. Entre ellos se incluyen documentos del Movimiento de Países No Alineados y otros Estados Partes de la CCW, Polonia, los Estados Unidos, el CICR, la Argentina y la Federación de Rusia.

Independientemente de si los estados llegan a algún acuerdo sobre la regulación de LEYES o si continúan en desacuerdo sobre su potencial de abuso, las discusiones de esta semana bien merecen la atención de los involucrados en el desarrollo de la política internacional de seguridad y humanitaria.

Autor: Williams

▷ Esperamos que haya sido de utilidad. Si conoce a alguien que pueda estar interesado en este tema, por favor comparta con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo