Algoritmo
Este elemento es un complemento de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema.
Ahora vivimos en un mundo donde los algoritmos, y los datos que los alimentan, adjudicar (decidir o resolver) una gran variedad de decisiones en nuestras vidas: no solo los motores de búsqueda y los sistemas personalizados de noticias en línea, sino las evaluaciones educativas, el funcionamiento de los mercados y campañas políticas, el diseño de espacios públicos urbanos, e incluso cómo los servicios sociales como el bienestar y la seguridad pública.Si, Pero: Pero los algoritmos pueden cometer errores y operar con sesgos. La opacidad de los algoritmos técnicamente complejos que operan en de la escala de la enfermedad dificultan su escrutinio, lo que conduce a una falta de claridad para el público en general. de cómo ejercen su poder e influencia.
Un algoritmo puede definirse como una serie de pasos que se llevan a cabo para resolver un problema en particular o lograr un resultado definido. Aquí considero los algoritmos que operan a través de computadoras digitales debido a su prevalencia y capacidad para afectar a un gran número de personas a través de la escala.
Existen innumerables formas en que los algoritmos interactúan con la vida pública y la convierten en un problema potencial, incluyendo cómo necesitan la dataficación del mundo, crear complejos circuitos de retroalimentación con datos sociales o fomentar la creación de públicos calculados. Algún autor se centra en el núcleo subyacente y quizás intrínseco del poder algorítmico: la toma de decisiones autónoma. Las decisiones algorítmicas pueden basarse
sobre heurística (aprender del descubrimiento y la experimentación; a veces se utiliza un concepto abstracto) y reglas, o cálculos sobre cantidades masivas de datos. Las reglas pueden ser articuladas directamente por los programadores, o ser dinámicas y flexibles basadas en el aprendizaje automático de datos. A veces un operador humano mantiene la agencia y toma la decisión final en un proceso, pero incluso en este caso el algoritmo sesga la atención del operador hacia un subconjunto de información.
Los periodistas, por ejemplo, están empezando a adaptar sus funciones tradicionales de vigilancia y rendición de cuentas a esta nueva fuente de poder en la sociedad. Están investigando algoritmos para caracterizar su poder y delinear sus errores y sesgos en un proceso de lo que se podría llamar informes algorítmicos de rendición de cuentas. Ejemplos de aplicación desde comparaciones relativamente sencillas y visualizaciones de datos estadísticos o modelos de corrección del desempleo, a sofisticadas medidas de inversión investigaciones de ingeniería de discriminación de precios en línea.
Revisor: Lawrence
Introducción al Algoritmo
Concepto de Algoritmo en el ámbito del comercio exterior y otros afines: Conjunto de procedimientos mediante los que se consigue un efecto. Suelen expresarse a través de letras, cifras y símbolos, que forman un algoritmo determinado. Ancho de banda Característica de la línea telefónica que determina la cantidad de conexiones simultáneas que se pueden establecer entre los usuarios y el servidor.
Significado Alternativo
Cuando mayor sea el ancho de banda de la línea que ofrece un servidor, más usuarios podrán conectarse a la vez, y más rápida será la conexión.
A continuación se examinará el significado.
¿Cómo se define? Concepto de Criptosistema Asimétrico
Definición de criptosistema asimétrico en el contexto del derecho administrativo público argentino: Frase. Nombre masculino. Familia de métodos matemáticos (algoritmos) que utiliza un par de claves, una clave privada para firmar digitalmente y su correspondiente clave pública para verificar esa firma digital, hecho que la hace técnicamente confiable.
Significado Alternativo de Criptosistema Asimétrico
Algoritmo que utiliza un par de claves, una clave privada para firmar digitalmente y su correspondiente clave pública para verificar esa firma digital: cuya clave privada crea una firma digital y cuya correspondiente clave pública se utiliza para verificar esa firma digital. A efectos de este Decreto se entiende que el criptosistema asimétrico debe ser técnicamente confiable. Criptosistema Asimétrico en inglés: asymetrical crypto-system. Criptosistema Asimétrico en francés: crypto-systeme asymétrique.[1]
Algoritmo de Guerra
[rtbs name=”conflicto-armado”]
En muchas áreas de la vida moderna, “la autoridad se expresa cada vez más de forma algorítmica”. La guerra no es una excepción.
En este documento informativo, se introduce un nuevo concepto de algoritmos-que-guerra eleva algoritmos derivados de “opciones” y “decisiones” a un, y tal vez la preocupación central relativa autonomía técnica en la guerra.
Una Conclusión
Por lo tanto, nuestro objetivo es arrojar luz y reformular la discusión sobre “sistemas de armas autónomas”.
Al introducir este concepto, nuestra preocupación tecnológica fundamental es la capacidad de un sistema construido, sin más intervención humana, para ayudar a tomar y efectuar una “decisión” o “elección” de un algoritmo de guerra. Destilados, los dos ingredientes principales son un algoritmo expresado en código de computadora y un sistema construido adecuadamente capacitado. A través de esa lente, conectamos el derecho internacional y las arquitecturas de responsabilidad relacionadas con las tecnologías relevantes. Esbozamos un enfoque de tres partes (no exhaustivo) que resalta las vías de rendición de cuentas tradicionales y no convencionales. Al no limitar nuestra investigación solo a los sistemas de armas, tomamos una visión amplia, mostrando cómo el concepto amplio de algoritmos de guerra podría ser susceptible de regulación, y cómo esos algoritmos podrían encajar dentro del sistema regulatorio existente establecido por el derecho internacional.
* * *
Las partes en conflicto han expresado durante mucho tiempo autoridad y poder a través de algoritmos. Durante décadas, los algoritmos han ayudado a los sistemas de armas, primero en el mar y luego en tierra, a identificar e interceptar misiles entrantes. Hoy en día, los sistemas militares son cada vez más capaces de navegar por nuevos entornos y vigilar a poblaciones lejanas, así como de identificar objetivos, estimar daños y lanzar ataques directos, todo con menos humanos en el cambio. De hecho, en los últimos años, los desarrollos comerciales y militares en la autonomía derivada algorítmicamente han generado diversos beneficios para las fuerzas armadas en términos de “conciencia del espacio de batalla”, protección, “aplicación de la fuerza” y logística. Y esas no son de ninguna manera el conjunto exhaustivo de aplicaciones.
Gran parte de la tecnología subyacente, a menudo desarrollada inicialmente en contextos comerciales o académicos, es susceptible de uso militar y no militar.
Una Conclusión
Por lo tanto, la mayor parte se caracteriza por ser de “doble uso”, una abreviatura para ser capaz de cumplir una amplia gama de funciones. Los costos (o costes, como se emplea mayoritariamente en España) de la tecnología están cayendo, a menudo precipitadamente. Y, una vez que existe la tecnología, se suele suponer que puede ser utilizada por una amplia gama de actores.
Impulsados en gran parte por intereses comerciales, los desarrolladores están avanzando tecnologías relevantes y arquitecturas técnicas a un ritmo rápido. El potencial de esos avances para cruzar un Rubicon moral se está incrementando con más frecuencia en los foros internacionales y entre las comunidades técnicas, así como en la prensa popular.
Algunos de los avances más relevantes incluyen sistemas construidos a través de los cuales se recopilan rápidamente grandes cantidades de datos y se producen las “elecciones” derivadas algorítmicamente.
Detalles
Los autos “autónomos” o “autónomos” son un ejemplo. Ford, por ejemplo, monta cuatro sensores basados en láser en el techo de su auto de investigación de conducción autónoma, y colectivamente esos sensores “pueden capturar 2.5 millones de puntos 3-D por segundo dentro de un rango de 200 pies”. Legal, ético, político, y los comentaristas sociales están prestando atención, y examinando los estándares y marcos propuestos para gobernar, las “elecciones” de vida o muerte hechas por los autos autónomos.
Entre los otros avances relevantes está el potencial para que los algoritmos y arquitecturas de aprendizaje logren cada vez más rendimiento (véase una definición en el diccionario y más detalles, en la plataforma general, sobre rendimientos) a nivel humano en dominios de inteligencia artificial (AI) previamente difíciles de manejar. Por ejemplo, un programa de computadora recientemente logró una hazaña que antes se pensaba que estaría a una década de distancia: derrotar a un jugador profesional humano en un juego de gran tamaño de Go.Entre las Líneas En marzo de 2016, en un partido de cinco juegos, AlphaGo, un programa de computadora que utiliza una técnica de inteligencia artificial conocida como “aprendizaje profundo”, que “permite a las computadoras extraer patrones de masas de datos con poca mano humana”, ganó cuatro juegos en contra. Vaya experto Lee Sedol. Google, Amazon y Baidu utilizan la misma técnica de AI o similar para tareas como el reconocimiento facial y la publicación de anuncios en sitios web. Siguiendo la serie de victorias de AlphaGo,
Sin embargo, incluso entre los principales científicos, prevalece la incertidumbre en cuanto a los límites tecnológicos. Esa incertidumbre repele un consenso sobre las capacidades actuales, por no decir nada de las predicciones de cuáles podrían ser los desarrollos probables en el corto y largo plazo (véase más en esta plataforma general) (con esos horizontes definidos de manera diferente).
Los riesgos son particularmente importantes en el contexto de la violencia política que alcanza el nivel de “conflicto armado”. Esto se debe a que el derecho internacional admite mucha más muerte legal, destrucción e interrupción en la guerra que en la paz. Incluso para las partes responsables comprometidas con el estado de derecho, el régimen legal contempla el despliegue de tecnologías letales y destructivas a gran escala. El uso de tecnologías avanzadas, por no decir nada de los fallos, el mal funcionamiento, la piratería o la suplantación de identidad de esas tecnologías, podría tener consecuencias mucho más significativas en relación con la guerra que con la paz. Aquí nos centramos principalmente en el derecho internacional porque es el único régimen normativo que pretende, en aspectos clave pero con importantes advertencias, ser universal y uniforme. De este modo,
Por supuesto, el desarrollo y uso de tecnologías avanzadas en relación con la guerra han generado durante mucho tiempo debates éticos, políticos y legales. No hay nada nuevo sobre el deseo general y la necesidad de discernir si el uso de una capacidad tecnológica emergente se ajustaría o violaría la ley.
Puntualización
Sin embargo, hoy en día, las tecnologías emergentes agudizan, y hasta cierto punto, modifican, ese esfuerzo perdurable. Una razón clave es que se considera que esas tecnologías presentan un punto de inflexión en el que el juicio humano podría ser “reemplazado” por “elecciones” derivadas algorítmicamente. Para desentrañar y comprender las implicaciones de ese encuadre, entre otras cosas, la comprensión técnica y la ética.[rtbs name=”etica”]Sensibilización y conocimiento jurídico. Comprensiblemente si desafortunadamente,
En gran parte, el discurso hasta la fecha ha girado en torno a un concepto que hasta ahora carece de un consenso de definición: “sistemas de armas autónomas” (AWS). Las concepciones actuales de AWS varían enormemente.Entre las Líneas En un extremo del espectro, un AWS es un componente automatizado de un arma existente.
Otros Elementos
Por otro lado, es una plataforma que es capaz de detectar, aprender y lanzar los ataques resultantes. Independientemente de cómo se defina en un caso particular, el encuadre de AWS restringe el discurso sobre las armas, excluyendo la miríada de otras funciones, por benevolentes que sean capaces las tecnologías subyacentes.
Lo que significan las armas autónomas para la responsabilidad legal y una responsabilidad más amplia ha generado uno de los debates recientes más acalorados sobre el derecho de la guerra. Una constelación de factores ha dado forma a la discusión.
Las percepciones de las amenazas de seguridad en evolución, la estrategia geopolítica (más detalles sobre relaciones internacionales y las tensiones geopolíticas en nuestra plataforma) y los desarrollos que las acompañan en la doctrina militar han llevado a los gobiernos a priorizar el uso de sistemas no tripulados y cada vez más autónomos (con “autónomos” definidos de manera diversa) para obtener y mantener una ventaja cualitativa. Para 2013, el liderazgo (véase también carisma) en la Marina de los EE. UU. Y el Departamento de Defensa (DoD) identificaron la autonomía en los sistemas no tripulados como una “alta prioridad”.Entre las Líneas En marzo de 2016, los Ministerios de Asuntos Exteriores y de Defensa de los Países Bajos afirmaron su creencia de que “si los holandeses Las fuerzas armadas deben seguir siendo tecnológicamente avanzadas, las armas autónomas tendrán un papel que desempeñar, ahora y en el futuro ”. Un número creciente de estados tienen opiniones similares.
Al mismo tiempo, los defensores de los derechos humanos y ciertos expertos en tecnología han catalizado iniciativas para promover la prohibición de “armas totalmente autónomas” (que los defensores y expertos también denominan “robots asesinos”). Las principales preocupaciones se expresan en términos de delegar las decisiones sobre la fuerza letal lejos de los humanos, por lo tanto “deshumanizando” la guerra y, en el proceso, haciendo que las guerras sean más fáciles de procesar. Tras la publicación en 2012 de un informe de Human Rights Watch y la Clínica Internacional de Derechos Humanos en la Escuela de Derecho de Harvard, la Campaña para detener a los robots asesinos se lanzó en abril de 2013 con el objetivo explícito de promover una “prohibición preventiva de armas totalmente autónomas”.. “La razón es que tales armas, de acuerdo con este punto de vista, nunca serán capaces de adaptarse al derecho internacional humanitario (DIH) y, por lo tanto, son per seilegal.Entre las Líneas En julio de 2015, miles de destacados expertos en inteligencia artificial y robótica, así como otros científicos, aprobaron una “Carta Abierta” sobre armas autónomas, argumentando que “[la] pregunta clave para la humanidad de hoy es si comenzar una carrera de armamentos global de AI o para evitar que comience “. Los que respaldan la carta” creen que la IA tiene un gran potencial para beneficiar a la humanidad de muchas maneras, y que el objetivo del campo debe ser hacerlo “. Pero, advirtieron,” [s] tarting a “La carrera de armamentos de la IA militar es una mala idea, y debe evitarse mediante una prohibición de las armas autónomas ofensivas más allá del control humano significativo”.
Mientras tanto, una serie de comentaristas ha argumentado a favor de regular los sistemas de armas autónomos, principalmente a través de las normas y disposiciones de derecho internacional existentes.Entre las Líneas En general, estas voces se centran en fundamentar el discurso en términos de la capacidad de las normas legales existentes, especialmente las establecidas en DIH, para regular el diseño, el desarrollo y el uso, o para prohibir el uso de tecnologías emergentes. Al hacerlo, estos comentaristas a menudo enfatizan que los estados ya han desarrollado un conjunto relativamente grueso de normas de derecho internacional que guían las decisiones sobre la vida y la muerte en la guerra. Incluso si no hay un tratado específico que aborde un arma en particular, argumentan, el DIH regula el uso de todas las armas a través de reglas y principios generales que gobiernan la conducta de las hostilidades que se aplican independientemente del arma utilizada. Algunas de estas voces también afirman que, por razones políticas, militares, comerciales u otras, es poco probable que los estados acuerden una prohibición preventiva de armas totalmente autónomas y, por lo tanto, un mejor uso de los recursos sería centrarse en regular las tecnologías y monitoreando su uso.
Otros Elementos
Además, estos comentaristas a menudo enfatizan la modularidad de la tecnología y plantean inquietudes sobre la posibilidad de excluir posibles aplicaciones beneficiosas al servicio de una prohibición (en su opinión, altamente improbable) de armas totalmente autónomas.
En general, la falta de consenso sobre la clasificación raíz de AWS y sobre el alcance de la discusión resultante hace que sea difícil generalizar.Si, Pero: Pero los contornos principales del “debate” que sigue a menudo tienen un lado de “prohibición” supuestamente unitario frente a un lado de “regulación” supuestamente unitario. Al igual que con muchas cuentas abreviadas, esta formulación es demasiado simplista. Un surtido de contribuyentes reflexivos no encaja perfectamente en ninguna de las categorías generales. Y, cuando se analizan, esas categorías generales de “prohibición” frente a “regular” – revelan fallas fundamentales, sobre todo debido a la falta de acuerdo sobre lo que, exactamente, se supone que debe prohibirse o regularse. Sea como fuere, una gran parte del discurso resultante ha sido capturado en estos términos de “prohibición” -vs.- “regular”.
Detrás de gran parte de este debate están los argumentos sobre la toma de decisiones en la guerra, y quién está mejor situado para tomar decisiones de vida o muerte: los humanos o las máquinas. También existe un desacuerdo sobre los beneficios y costos (o costes, como se emplea mayoritariamente en España) de distanciar a los combatientes humanos del campo de batalla y si los posibles beneficios de salvamento de AWS se compensan con el hecho de que la guerra también se vuelve, en ciertos aspectos, más fácil de realizar. También hay diferentes entendimientos y predicciones acerca de qué máquinas son y serán capaces de hacer.
Con el aumento del interés popular y popular en AWS, los estados han estado prestando más atención pública al tema de regular la autonomía en la guerra.Si, Pero: Pero el lugar principal en el que lo están haciendo limita funcionalmente la discusión a las armas. Desde 2014, las reuniones informales de expertos sobre “sistemas de armas autónomas letales” se han convocado anualmente en la Oficina de las Naciones Unidas en Ginebra. Estas reuniones tienen lugar dentro de la estructura de la Convención de 1980 sobre prohibiciones o restricciones al uso de ciertas armas convencionales que pueden considerarse excesivamente nocivas o de efectos indiscriminados (CCW). Ese tratado se establece como una convención marco: a través de él, los estados pueden adoptar instrumentos adicionales relacionados con las preocupaciones centrales del acuerdo de referencia (se han adoptado cinco de estos protocolos). Junto a la CCW, otros tratados de control de armas abordan tipos específicos de armas, como armas químicas, armas biológicas, minas terrestres antipersonal, municiones en racimo y otros. El CCW es el único régimen existente, sin embargo, que es continuo y abierto y puede usarse como marco para abordar tipos adicionales de armas.
La motivación original para convocar a los estados como parte de la CCW fue impulsar un protocolo que prohíba las armas totalmente autónomas. La reunión más reciente (que se convocó en abril de 2016) recomendó que la Quinta Conferencia de Revisión de los Estados parte de la CCW (que se celebrará en diciembre de 2016) “pueda decidir establecer un Grupo de Expertos Gubernamentales de composición abierta (GGE) ”En AWS.Entre las Líneas En el pasado, el establecimiento de un GGE ha llevado a la adopción de un nuevo protocolo de CCW (uno que prohíbe los láseres con cegamiento permanente). Si los estados parte establecen un GGE en AWS y, de ser así, cuál será su mandato, son preguntas abiertas.Entre las Líneas En cualquier caso, en las reuniones más recientes, cerca de dos docenas de estados respaldaron la idea, cuyos contornos siguen sin estar definidos hasta ahora, de “control humano significativo” sobre los sistemas de armas autónomos.
Al alejarnos, vemos que un par de factores entrelazados han oscurecido y dificultado el análisis de si las tecnologías relevantes pueden y deben regularse.
Un factor es la gran complejidad técnica en cuestión. (Tal vez sea de interés más investigación sobre el concepto). La falta de conocimiento de las complejidades técnicas ha obstaculizado los esfuerzos de los no expertos para comprender cómo las tecnologías centrales pueden encajar o frustrar los marcos legales existentes.
Esto no es un desafío particular para AWS, por supuesto. La mayoría de los profesionales del DIH no son expertos en el funcionamiento interno de las numerosas tecnologías relacionadas con los conflictos armados. La mayoría de los abogados de DIH no pudieron detallar las especificaciones técnicas, por ejemplo, de varios armamentos, vehículos de combate o sistemas de inteligencia, vigilancia y reconocimiento (ISR).Si, Pero: Pero en general, la falta de conocimiento técnico no necesariamente impedirá al menos un análisis provisional de la legalidad del uso de tal sistema. Esto se debe a que un análisis inicial del DIH es a menudo un ejercicio para identificar la regla relevante y comenzar a aplicarla en relación con el contexto aplicable.
Puntualización
Sin embargo, las concepciones ampliamente diversas de AWS y las tecnologías variadas que acompañan a esas concepciones plantean un conjunto de desafíos de clasificación aún por resolver.
El otro factor relacionado es que los estados, al igual que los abogados, tecnólogos y otros comentaristas, no están de acuerdo en aspectos clave sobre lo que se debe abordar. Hasta el momento, los encabezados incluyen “robots autónomos letales”, “sistemas de armas autónomas letales”, “sistemas de armas autónomas” más ampliamente y “asociaciones inteligentes” aún más ampliamente. Y los posibles estándares mencionados incluyen “control humano significativo” (incluso en el “bucle más amplio” de operaciones de focalización), “control estatal significativo” y “niveles apropiados de juicio humano”. Más básicamente, no hay consenso sobre si incluir solo armas o, además, sistemas capaces de involucrarse en otras funciones relacionadas con el conflicto armado, como transportar y proteger a los detenidos, brindar atención médica y facilitar la asistencia humanitaria.
En este contexto, el encuadre de AWS ha impedido en gran medida el análisis significativo de si (lo que sea “lo que sea que conlleve”) puede ser regulado, por no hablar de cómo y cómo debería ser regulado.Entre las Líneas En este informe informativo, replanteamos la discusión introduciendo el concepto de “algoritmos de guerra”. Definimos “algoritmo de guerra” como cualquier algoritmo que se expresa en código de computadora, que se efectúa a través de un sistema construido y que es capaz de operar en Relación con el conflicto armado. Esos algoritmos parecen ser, y tal vez, los: Ingrediente clave de lo que la mayoría de las personas y estados discuten cuando abordan AWS. Expandimos el alcance más allá de las armas solo (por más importantes que sean) porque las capacidades tecnológicas rara vez, si alguna, se limitan al uso solo como armas y porque otras funciones de guerra que involucran una autonomía derivada algorítmicamente también deben considerarse para la regulación. (Tal vez sea de interés más investigación sobre el concepto).
Otros Elementos
Además, dada la naturaleza modular de gran parte de la tecnología, un enfoque solo en las armas podría frustrar los intentos de regulación.
Los algoritmos son un componente conceptual y técnico de muchos sistemas. Esos sistemas incluyen arquitecturas de autoaprendizaje que hoy presentan algunas de las preguntas más precisas sobre “reemplazar” el juicio humano por “elecciones” derivadas algorítmicamente.
Otros Elementos
Además, los algoritmos forman la base de la mayoría de los sistemas y plataformas, e incluso los “sistemas de sistemas”. ”—A menudo discutido en relación con AWS. A falta de un desarrollo imprevisto, es probable que los algoritmos sigan siendo un pilar de las arquitecturas técnicas.
Los sistemas construidos a través de los cuales se efectúan estos algoritmos difieren enormemente. Lo mismo ocurre con la naturaleza, las formas y los niveles del control humano y la gobernanza sobre ellos. Los sistemas construidos existentes incluyen, entre muchos otros, torretas estacionarias, sistemas de misiles y vehículos aéreos, terrestres o marítimos tripulados o no tripulados.
Todos los algoritmos subyacentes son desarrollados por programadores y se expresan en código de computadora.Si, Pero: Pero algunos de estos algoritmos, especialmente aquellos capaces de “autoaprendizaje” y cuyas “opciones” pueden ser difíciles de anticipar o desempaquetar para los humanos, parecen desafiar conceptos fundamentales e interrelacionados que sustentan el derecho internacional relacionado con los conflictos armados y los marcos de responsabilidad relacionados. Esos conceptos incluyen la atribución, el control, la previsibilidad y la capacidad de reconstrucción.
En su núcleo, el diseño, desarrollo y uso de algoritmos de guerra plantean preguntas profundas. Fundamentalmente, esas preguntas se refieren a quién, o qué, debe decidir, y lo que significa decidir, los asuntos de la vida y la muerte en relación con la guerra.Si, Pero: Pero los algoritmos de guerra también ponen en primer plano una serie de preguntas más cotidianas, aunque también importantes, sobre los beneficios y los costos (o costes, como se emplea mayoritariamente en España) del juicio humano y su “reemplazo” con sistemas derivados algorítmicamente, incluso en áreas como la logística.
Basamos nuestro análisis centrándonos en la responsabilidad del algoritmo de guerra.Entre las Líneas En resumen, estamos interesados principalmente en el “deber de rendir cuentas… por el ejercicio del poder” sobre, en otras palabras, responsabilizar a alguien o alguna entidad por el diseño, desarrollo o uso (o una combinación de ellos) de una guerra. algoritmo. Ese poder puede ser ejercido por una variedad diversa de actores. Algunos son obvios, especialmente los estados y sus fuerzas armadas.Si, Pero: Pero muchos otros individuos y entidades también pueden ejercer poder sobre los algoritmos de guerra. Considere las amplias clases de “desarrolladores” y “operadores”, tanto dentro como fuera del gobierno, de tales algoritmos y sus sistemas relacionados. Piense también en abogados, organismos de la industria, autoridades políticas, miembros de grupos armados organizados, y muchos, muchos otros. Centrarse en los algoritmos de guerra los abarca a todos.
Nos basamos en la cantidad extensa y en rápido crecimiento de investigaciones académicas y otros análisis analíticos que han abordado temas relacionados. Para ayudar a iluminar la discusión, describimos qué tecnologías y sistemas de armas ya existen, qué campos del derecho internacional podrían ser relevantes y qué vías regulatorias podrían estar disponibles. Como se señaló anteriormente, dado que el derecho internacional es el marco normativo de referencia para la rendición de cuentas en relación con la guerra, nos centramos en las fuentes y metodologías de derecho internacional público.Si, Pero: Pero como mostramos, otras normas y formas de gobierno también pueden merecer atención.
La rendición de cuentas es un término amplio del art. Nos adaptamos, de la labor de un Comité de la Asociación de Derecho Internacional en un contexto diferente (la responsabilidad de las organizaciones internacionales), un enfoque de responsabilidad de tres partes. Nuestro marco describe tres ejes en los que centrarse inicialmente en los algoritmos de guerra.
El primer eje es la responsabilidad del Estado. Se refiere a la responsabilidad del estado derivada de actos u omisiones que involucran un algoritmo de guerra donde dichos actos u omisiones constituyen una violación de una regla de derecho internacional. La responsabilidad del estado implica discernir el contenido de la regla, identificar una infracción de la regla, asignar la atribución de dicha infracción a un estado, determinar las excusas disponibles (si las hubiera) e imponer medidas de reparación.
El segundo eje es una forma de responsabilidad individual según el derecho internacional.Entre las Líneas En particular, se refiere a la responsabilidad individual en virtud del derecho internacional por delitos internacionales, como los crímenes de guerra (la Convención sobre la imprescriptibilidad de los crímenes de guerra y de los crímenes de lesa humanidad fue adoptada en Nueva York, el 26 de noviembre de 1968 por la Asamblea General en su resolución 2391 (XXIII) y entró en vigor el 11 de noviembre de 1970, de conformidad con el artículo VIII; consulte también la información sobre los delitos o crímenes de lesa humanidad y acerca de los crímenes contra la humanidad), que involucran algoritmos de guerra. Esta forma de responsabilidad individual implica establecer la comisión de un crimen bajo la jurisdicción relevante, evaluar la existencia de una justificación o excusa (si corresponde) y, una vez condenada, imponer una sentencia.
El tercer y último eje es la gobernanza de escrutinio. Abarcando una noción más amplia de responsabilidad, se refiere a la medida en que una persona o entidad está y debería estar sujeta a, o debería ejercer, formas de escrutinio interno o externo, monitoreo o regulación (o una combinación de ellas) con respecto al diseño, desarrollo, o uso de un algoritmo de guerra. El control del escrutinio no depende de la responsabilidad o responsabilidad potencial y subsiguiente (o ambas cosas), pero podría implicar esto. Las formas de gobernanza de escrutinio incluyen monitoreo independiente, desarrollo normativo (como legal), adopción de resoluciones y códigos de conducta no vinculantes, diseño normativo de arquitecturas técnicas y autorregulación de la comunidad.
Luego de una introducción que resalta lo que está en juego, procedemos con una sección que describe las consideraciones pertinentes con respecto a los algoritmos y sistemas construidos. Destacamos los avances recientes en inteligencia artificial relacionados con los algoritmos y arquitecturas de aprendizaje. También examinamos los enfoques estatales para la autonomía técnica en la guerra, centrándonos en cinco de estos enfoques: los de Suiza, los Países Bajos, Francia, los Estados Unidos y el Reino Unido. Finalmente, para fundamentar el debate a menudo teórico relacionado con los sistemas de armas autónomos, describimos los sistemas de armas existentes que se han caracterizado por varios comentaristas como AWS.
La siguiente sección describe los principales campos del derecho internacional que los algoritmos de guerra podrían implicar. No existe una rama única del derecho internacional dedicada exclusivamente a los algoritmos de guerra.
Una Conclusión
Por lo tanto, analizamos cómo esos algoritmos pueden encajar dentro o de lo contrario implicar varios campos del derecho internacional. Aterrizamos la discusión destacando los ingredientes principales de la responsabilidad del estado. Para ayudar a ilustrar las posiciones de los estados con respecto a AWS, examinamos si se puede discernir una norma emergente de derecho internacional consuetudinario específica para AWS. Encontramos que uno no puede (al menos no todavía).
Una Conclusión
Por lo tanto, a continuación destacamos cómo el diseño, desarrollo o uso (o una combinación de ellos) de un algoritmo de guerra puede implicar principios y reglas más generales que se encuentran en varios campos del derecho internacional. Esos campos incluyen el jus ad bellum., DIH, derecho internacional de los derechos humanos, derecho penal internacional (CCI) y derecho espacial. Debido a que los estados y los comentaristas se han centrado en gran medida en AWS hasta la fecha, gran parte de nuestra discusión aquí se relaciona con el marco de AWS.
La siguiente sección elabora un enfoque de responsabilidad de algoritmo de guerra (no exhaustivo). Ese enfoque se centra en la responsabilidad del Estado por un hecho internacionalmente ilícito, en la responsabilidad individual en virtud del derecho internacional por crímenes internacionales y en formas más amplias de control, monitoreo y regulación. (Tal vez sea de interés más investigación sobre el concepto). Destacamos los actores y arquitecturas de rendición de cuentas existentes en virtud del derecho internacional que podrían regular los algoritmos de guerra. Estas incluyen reparaciones de guerra así como también tribunales internacionales y nacionales. Luego, recurrimos a vías de rendición de cuentas menos convencionales, como aquellas enraizadas en el diseño normativo de arquitecturas técnicas (incluida la maximización de la auditabilidad de los algoritmos) y la autorregulación de la comunidad.
En la conclusión, volvemos a las deficiencias de las discusiones actuales de AWS y enfatizamos la importancia de abordar las preocupaciones amplias y serias planteadas por AWS con competencia técnica, experiencia legal y compromiso no ideológico para una investigación genuina e inclusiva.Entre las Líneas En el horizonte, vemos que dos tendencias contradictorias pueden combinarse en un nuevo clima global que es a la vez emprendedor y ansioso. Los militares ven innumerables triunfos tecnológicos que transformarán la guerra.
Puntualización
Sin embargo, la posibilidad de “reemplazar” el juicio humano por “decisiones” derivadas algorítmicamente, especialmente en la guerra, amenaza lo que muchos consideran que nos define como humanos.
Hasta la fecha, la falta de conocimiento técnico demostrado por muchos estados y comentaristas, la falta de voluntad de los estados para compartir tecnologías de seguridad nacional estrechamente controladas y la ausencia de un consenso de definición sobre lo que se entiende por sistemas de armas autónomos han impedido los esfuerzos regulatorios en AWS.
Otros Elementos
Además, es probable que la incertidumbre sobre qué actores se beneficiarían más de los avances en AWS y por cuánto tiempo tales beneficios producirían una ventaja cualitativa significativa sobre los demás continuará inhibiendo los esfuerzos para negociar normas internacionales vinculantes sobre el desarrollo y despliegue de AWS.Entre las Líneas En este sentido, los esfuerzos para alcanzar un régimen internacional dedicado para abordar AWS pueden seguir las mismas frustraciones que los esfuerzos análogos para abordar la guerra cibernética. Es cierto que, a diferencia de los primeros días de la guerra cibernética, ha habido un mayor compromiso estatal en la regulación de AWS.Entre las Líneas En particular, el concepto de “control humano significativo” sobre AWS ya ha sido respaldado por más de dos docenas de estados.Si, Pero: Pero mucho queda en el aire cuando los estados deciden si establecer un Grupo de Expertos Gubernamentales en AWS en la próxima Quinta Conferencia de Revisión de la CCW.
El quid actual, tal como lo vemos, es si los avances en tecnología, especialmente aquellos capaces de “autoaprendizaje” y de operar en relación con la guerra y cuyas “opciones” pueden ser difíciles de anticipar o desempaquetar para los humanos o de cuáles “decisiones” son vistos como “sustitutos” del juicio humano, son susceptibles de regulación y, de ser así, si deben y cómo deben regularse. Una forma de pensar acerca de la preocupación central que guarda sobre al menos algunos de los impedimentos para la discusión sobre AWS es el nuevo concepto que planteamos: algoritmos de guerra.
Detalles
Los algoritmos de guerra incluyen no solo aquellos algoritmos capaces de ser utilizados en armas sino también en cualquier otra función relacionada con la guerra.
Más algoritmos de guerra están en el horizonte. Hace dos meses, la Junta de Ciencias de la Defensa, que está relacionada con el Departamento de Defensa de los Estados Unidos, identificó cinco “problemas de estiramiento”, es decir, objetivos que son “difíciles pero no demasiado difíciles” y que tienen el propósito de acelerar el proceso de llevar una nueva capacidad derivada algorítmicamente a una aplicación generalizada:
- Generación de “opciones de bucle futuras” (es decir, “uso de la interpretación de datos masivos, incluidas las redes sociales y opciones estratégicas generadas rápidamente”);
Habilitar enjambres autónomos (es decir, “negar [la] capacidad del enemigo para interrumpir la cantidad mediante el lanzamiento de una cantidad abrumadora de activos de bajo costo (o coste, como se emplea mayoritariamente en España) que cooperan para vencer la amenaza”); - Detección de intrusiones en el Internet de las cosas (es decir, “derrotar a las intrusiones adversas en la vasta red de sensores y dispositivos comerciales al descubrir de forma autónoma indicadores sutiles de compromiso ocultos en una avalancha de tráfico ordinario”);
- Creación de sistemas de vehículos militares autónomos y ciberresistentes (es decir, “confiando [en] que… las plataformas son resistentes al ciberataque mediante la validación y recuperación de la integridad del sistema autónomo”); y
- Planificación de operaciones aéreas autónomas (es decir, “operar dentro de las líneas de tiempo del adversario mediante la planificación (véase más en esta plataforma general) y replanificación de operaciones tácticas de forma continua mediante el análisis ISR autónomo, la interpretación, la generación de opciones y la asignación de recursos”).
El significado de esta trayectoria hacia una mayor autonomía algorítmica en la guerra, al menos entre las fuerzas armadas más sofisticadas tecnológicamente e incluso algunos grupos armados no estatales, significa que los propósitos de la rendición de cuentas siguen siendo un tema en disputa en el futuro previsible.
Mientras tanto, queda por determinar con autoridad si los algoritmos de guerra serán capaces de tomar las decisiones evaluativas y los juicios de valor que se incorporan en el DIH. Actualmente no está claro, por ejemplo, si los algoritmos de guerra serán capaces de formular e implementar las siguientes decisiones evaluativas basadas en el DIH y los juicios de valor:
- La presunción de estatus civil en caso de “duda”;
- La evaluación de la “excesividad” del daño incidental esperado en relación con la ventaja militar anticipada;
- La traición de la “confianza” en el DIH en relación con la prohibición de la perfidia; y
- La prohibición de destrucción de bienes civiles, excepto cuando sea “imperativamente” exigida por las necesidades de la guerra.
* * *
Dos factores pueden sugerir que, al menos por ahora, las formas más inmediatas de regular los algoritmos de guerra específicamente y buscar la responsabilidad sobre ellos podrían ser seguir no solo los caminos tradicionales sino también los menos convencionales. Como se ilustra anteriormente, este último podría incluir vías relativamente formales, como la creación, aplicación y cumplimiento de reglas de conducta de algoritmos de guerra dentro y más allá de sus territorios, o vías menos formales, como la codificación de leyes en arquitecturas técnicas y la autorregulación comunitaria.. Primero, aun cuando la ley formal parezca suficiente, abundan las preocupaciones sobre la aplicación práctica. Segundo,
En resumen, la responsabilidad individual por los crímenes internacionales en virtud del derecho internacional sigue siendo una de las vías vitales de rendición de cuentas que existen hoy en día, al igual que las medidas de remedio para la responsabilidad del Estado.
Puntualización
Sin embargo, en la práctica, la responsabilidad en cualquiera de las dos avenidas es, lamentablemente, relativamente rara. Y, por lo tanto, ninguno de los dos, por sí solo o en combinación, parece ser suficiente para abordar de manera efectiva las innumerables preocupaciones regulatorias relacionadas con los algoritmos de guerra, al menos no hasta que comprendamos mejor lo que está en juego. Estas preocupaciones podrían llevar a aquellos que buscan fortalecer la rendición de cuentas de los algoritmos de guerra para buscar no solo vías tradicionales y formales, sino también mecanismos menos formales y menos complejos.
En ese sentido, parece probable que los intentos de cambiar los enfoques de los gobiernos a la autonomía técnica en la guerra a través de la presión social (al menos para aquellos gobiernos que podrían responder a esa presión) continúen siendo una vía vital para la rendición de cuentas.Si, Pero: Pero aquí, también, hay preocupaciones. Numerosas iniciativas ya existen. Algunos de ellos están muy bien informados; otros no tanto. Muchos de ellos están motivados por intereses ideológicos, comerciales o de otra índole que, según el punto de vista de cada uno, podrían fortalecer o frustrar los esfuerzos de rendición de cuentas. Y dada la escasez de regímenes regulatorios formales, algunas de estas iniciativas pueden terminar teniendo un impacto considerable, a pesar de sus deficiencias.
Dando un paso atrás, vemos que las tecnologías de guerra, como sucede con las tecnologías en tantas áreas, producen una mezcla incómoda de promesa y amenaza. Con respecto a los algoritmos de guerra, la comprensión de estos puntos conflictivos requiere atención a una historia de un siglo y medio durante la cual la guerra se convirtió en una de las áreas más reguladas del derecho internacional.Si, Pero: Pero también requiere conocimientos técnicos.
Una Conclusión
Por lo tanto, aquellos que buscan la responsabilidad de los algoritmos de guerra harían bien en no olvidar el trabajo esencialmente político de los diseñadores de IHL, ni en ocultar el hecho de que la tecnología de hoy está, en su esencia, diseñada, desarrollada y desplegada por los seres humanos.Entre las Líneas En última instancia, la responsabilidad del algoritmo de guerra parece irrealizable sin suficiente competencia en arquitecturas técnicas y en marcos legales, junto con una conciencia ética, política y económica.
Finalmente, también incluimos una bibliografía y apéndices. La bibliografía contiene más de 400 fuentes analíticas, en varios idiomas, relacionadas con la autonomía técnica en la guerra. Los Apéndices contienen cuadros detallados que enumeran y categorizan las declaraciones de los estados en las Reuniones Informales de Expertos sobre Sistemas de Armas Letales Autónomas de 2015 y 2016 convocadas en el marco de la CCW.
Autor: Williams
Algoritmo
Recursos
[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]
Traducción al Inglés
Traducción al inglés de Algoritmo: Algorithm
Véase También
Bibliografía
Recursos
[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]
Notas y Referencias
- Información sobre criptosistema asimétrico basado en la obra de Postigo de Bedia, Ana María & Díaz de Martínez, Lucinda del Carmen. (2006). Diccionario de términos de la Administración Pública (Vol. 8) (consulte más sobre estos temas en la presente plataforma online de ciencias sociales y humanidades). Buenos Aires, Argentina: Editorial Dunken.