▷ Sabiduría semanal que puedes leer en pocos minutos. Añade nuestra revista gratuita a tu bandeja de entrada. Lee gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Liderazgo, Dinero, Startups, Políticas, Ecología, Ciencias sociales, Humanidades, Marketing digital, Ensayos, y Sectores e industrias.

Inteligencia Artificial en la Seguridad Pública

▷ Lee Gratis Nuestras Revistas

La Inteligencia Artificial en la Seguridad Pública

Este elemento es una profundización de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema. [aioseo_breadcrumbs]

La Inteligencia Artificial en la Guerra y Seguridad Nacional

Los recientes avances en aprendizaje automático e inteligencia artificial (IA) han generado especulaciones sin aliento sobre sus aplicaciones de seguridad nacional.

Puntualización

Sin embargo, la mayor parte de ese trabajo se ha centrado en sus implicaciones para los sistemas de armas autónomos, en lugar de en el entorno de seguridad más amplio. Aparte de un puñado de autores, pocos académicos han esbozado cómo la IA podría afectar las cuestiones fundamentales de las relaciones internacionales (más detalles sobre relaciones internacionales y las tensiones geopolítica en nuestra plataforma) y la política exterior.

Se destaca un desafío clave: ¿qué influencia tendrá la IA en los dilemas de seguridad entre las grandes potencias? Con los dos principales productores de AI, Estados Unidos y China, ya mirándose con cautela, la pregunta está lejos de ser una ociosa. Si queremos mantener un orden internacional estable, debemos comprender mejor cómo la inteligencia artificial puede exacerbar el dilema de seguridad y qué hacer al respecto.

La historia militar y económica sugiere que el efecto de la IA estrecha podría ser bastante grande, incluso si se exageran las sugerencias de la IA que desencadenan una nueva Revolución Industrial (véase también el impacto y las consecuencias de la industrialización). La teoría de la capacidad de adopción muestra que los cambios en el poder militar relativo se vuelven más probables en casos de innovaciones militares que requieren grandes cambios organizativos y la adopción de nuevos conceptos operacionales. Incluso si los Estados Unidos, China y Rusia terminaran con niveles similares de capacidad básica de inteligencia artificial durante la próxima década, la historia de las innovaciones militares desde la falange hasta el blitzkrieg sugiere que es la forma en que ellos y otros usan la IA lo que más importará. El futuro del poder militar.

Ya sea que las capacidades de AI se difundan de manera relativamente lenta o rápida, las principales potencias militares probablemente enfrentarán dilemas de seguridad relacionados con el desarrollo y despliegue de AI.Entre las Líneas En un escenario de difusión lenta, si los países temen que los adversarios puedan salir adelante de maneras difíciles de imitar rápidamente (y las pequeñas diferencias en las capacidades importarán en el campo de batalla), eso fomentará los incentivos para un rápido desarrollo y despliegue.Entre las Líneas En un escenario de rápida difusión, también existirán incentivos competitivos, ya que los países sienten que tienen que competir solo para mantenerse al día. 114 Además, será inherentemente difícil medir el progreso de los competidores con la IA (a diferencia, por ejemplo, al observar la construcción de un portaaviones), lo que hace que los países asuman lo peor de sus rivales potenciales.

La competencia en el desarrollo de la IA está en marcha. Los países de todo el mundo están invirtiendo fuertemente en IA, aunque Estados Unidos y China parecen estar por delante.

Puntualización

Sin embargo, incluso si la analogía de la carrera espacial no es precisa, entender la inteligencia artificial como competencia puede ser útil. Tales marcos ayudan a las personas y organizaciones a comprender el mundo que los rodea, desde cómo evaluar las amenazas internacionales hasta la trayectoria potencial de las guerras. Si la comparación de la competencia en la inteligencia artificial con la carrera espacial aclara las apuestas de manera que generen incentivos para la acción burocrática a nivel gubernamental, y aumente la conciencia pública y corporativa, la analogía podría tener utilidad para los Estados Unidos.

El dilema de seguridad

Los científicos políticos han especulado sobre el dilema de la seguridad desde que se formuló por primera vez en 1949. Recién de dos guerras mundiales, los estudiosos de las relaciones internacionales (más detalles sobre relaciones internacionales y las tensiones geopolítica en nuestra plataforma) se desconcertaron ante una posibilidad inquietante: ¿Qué pasaría si la guerra pudiera estallar incluso cuando ninguna de las partes la quisiera? Si un país no estuviera seguro de las intenciones y capacidades militares de su rival, sería racional para ese país almacenar armas y aumentar su capacidad militar en respuesta. El rival podría tomar esa precaución como un signo de agresión y responder de la misma manera, lo que provocará nuevas acumulaciones (véase su concepto jurídico) militares y situará a los dos países en un camino hacia la guerra.Entre las Líneas En esencia, la búsqueda de seguridad puede hacer que un estado sea menos seguro.

Desde el arco largo hasta las armas nucleares, los principales desarrollos en la tecnología militar siempre han agravado el dilema de la seguridad. Las nuevas tecnologías introducen incertidumbre sobre las capacidades militares: cada avance trae consigo incertidumbre sobre cómo se utilizará, o incluso qué tan poderoso será.Entre las Líneas En la década de 1930, por ejemplo, cada potencia principal conocía las capacidades generales del radar, la artillería mecanizada y los aviones.Si, Pero: Pero lo que nadie sabía a ciencia cierta, al menos no hasta que Alemania se abriera camino a través de Polonia y Francia, era cómo se utilizarían en la batalla. Del mismo modo, a principios de la Guerra Fría, tanto a Estados Unidos como a la Unión Soviética les preocupaba que el otro pudiera desarrollar misiles nucleares más poderosos que los suyos. El resultado fue una carrera de armamentos nucleares.

La inteligencia artificial introduce ambas formas de incertidumbre. Nadie sabe exactamente cómo se usarán las armas habilitadas para la IA en el campo de batalla, y mucho menos cuán poderosas serán esas armas.

En el nivel táctico, la IA introduce una incertidumbre significativa en virtud de ser una tecnología habilitadora.Entre las Líneas En lugar de constituir un sistema de armas único, AI se está incorporando en una amplia variedad de sistemas de armas e infraestructura central. Tanques, artillería, aviones, submarinos: las versiones de cada uno ya pueden detectar objetos y objetivos por sí mismos y maniobrar en consecuencia. Del mismo modo, AI también se está implementando dentro de los centros de comando y control y la infraestructura logística.

Puntualización

Sin embargo, no está claro cómo esas innovaciones cambiarán la naturaleza del conflicto. ¿Qué efecto tendrán enjambres de submarinos no tripulados en la guerra naval? ¿Qué sucede cuando la IA de los productos básicos de hoy no solo está atornillada a los centros de armas y comando y control existentes, sino que los integra de abajo hacia arriba? ¿Qué militar hará el mejor trabajo de integración de AI? en sus sistemas y tácticas de armas, y ¿cuánta ventaja de campo de batalla transmitirá? A pesar de la especulación desenfrenada sobre estas preguntas, las respuestas siguen siendo difíciles de encontrar y, hasta cierto punto, no son relevantes. Desde la perspectiva de un estratega militar, lo más importante es que las preguntas deben hacerse en absoluto. La posibilidad de que un poder rival pueda usar los sistemas de armas de IA de formas innovadoras e inesperadas es suficiente para exacerbar las preocupaciones de seguridad existentes.

Sin embargo, a pesar de todas las dudas sobre cómo se utilizará la IA, existe una incertidumbre aún mayor sobre qué tan poderoso será en última instancia. La inteligencia artificial es una función de los algoritmos, datos y potencia de cálculo. Cada uno de esos factores ha mejorado en un clip bastante regular, pero exponencial, lo que significa que podemos pronosticar el progreso de la IA de manera bastante confiable a corto plazo, pero no a largo plazo.Entre las Líneas En el lado del algoritmo, el progreso a lo largo del tiempo en la transferencia o el aprendizaje de una sola vez podría mejorar radicalmente la competencia e incluso el “sentido común” de la IA.

Otros Elementos

Además, en el lado del hardware, los avances en los procesadores neuromórficos y la computación cuántica pueden aumentar la inteligencia artificial de hoy en día. Sin duda, todavía hay debate. sobre qué tan adecuadas son las computadoras cuánticas para los algoritmos de optimización que impulsan las formas más comunes de aprendizaje automático.

Puntualización

Sin embargo, el aprendizaje de la máquina cuántica tiene una gran promesa, especialmente para buscar de manera eficiente los vastos espacios de acción que, por ejemplo, un enjambre de aviones no tripulados con múltiples agentes tendrá que gestionar. Dados los avances en el aprendizaje de refuerzo multiagente impulsado por las GPU de hoy en día, es desalentador pensar en lo que podrían hacer los militares estadounidenses o chinos con la computación cuántica del mañana. (De hecho, esto es en parte la razón por la que China pretende no solo ser el líder mundial (o global) en inteligencia artificial para el año 2030, sino también ganar la carrera de computación cuántica).

La incertidumbre acerca de cómo se utilizará la inteligencia artificial y cuán poderosa será plantea desafíos profundos para el estratega militar de hoy. Por un lado, una potencia rival puede usar los sistemas de armas de la IA de los productos básicos de formas novedosas, y obtener el tipo de ventaja de primer movimiento que Alemania alguna vez hizo con el blitzkrieg.

Otros Elementos

Por otro lado, una potencia rival puede, en cambio, desarrollar una IA mejor y más poderosa, y usarla para obtener una ventaja militar insuperable. Cualquiera de las perspectivas es suficiente para exacerbar los dilemas de seguridad existentes.

Qué hacer

Cómo resolver el ” dilema irreducible ” de la gran rivalidad de poder nunca es una tarea fácil. Esto es especialmente cierto hoy en día, cuando las dos principales potencias del mundo, China y Estados Unidos, están cada vez más inseguras sobre las capacidades militares de la otra, así como sus intenciones.

Afortunadamente, ambas potencias pueden trabajar para reducir la incertidumbre introducida por la IA. Cuando se trata de cómo se puede usar la IA, cada ejército puede confiar en el juego en equipo y en los juegos de guerra para pensar en tácticas innovadoras e innovadoras.

Otros Elementos

Además, cada uno puede transmitir públicamente nuevas capacidades tácticas. Demostraciones como la que se llevó a cabo en la marina de China en junio pasado, en la que probaron una flota de más de 50 aviones no tripulados, reducen la incertidumbre sobre cómo podrían usar los sistemas de armas de inteligencia artificial.

La pregunta más difícil es cómo evitar que la incertidumbre sobre el desarrollo futuro de la IA desestabilice aún más el dilema de seguridad entre los dos países. El problema es cómo se produce la IA.Entre las Líneas En el pasado, la mayoría de las nuevas tecnologías militares principales fueron desarrolladas principalmente por el ejército, pero la IA es una tecnología de “doble uso”, cuyo desarrollo está impulsado comercialmente y depende de una cadena de suministro global. Aunque hay ventajas para el desarrollo impulsado por el mercado, en particular, los propios mercados pueden servir como una fuente importante de información sobre las capacidades de AI, también introduce riesgos estratégicos y costos (o costes, como se emplea mayoritariamente en España) de complejidad.

Cualquier estrategia para mitigar la incertidumbre introducida por AI tendrá que lidiar con esa complejidad. Los Estados Unidos y China tienen tres opciones generales para gestionar la IA en el futuro:

  • Cooperación plena. Los Estados Unidos y China podrían comprometerse a abrir completamente el comercio con respecto a la IA comercial, al tiempo que establecen organizaciones bilaterales para monitorear (vigilar) (vigilar) sus aplicaciones militares. Aunque esta opción reduciría la incertidumbre acerca de las capacidades militares de cada poder, también aumentaría la dependencia de cada uno en la transferencia de tecnología del otro.
  • Competencia completa. Los Estados Unidos y China podrían imponer estrictos controles de exportación en el hardware y el software relacionados con la inteligencia artificial y duplicar sus esfuerzos nacionales de inteligencia artificial. Tal movimiento disminuiría la dependencia de cada país en la transferencia de tecnología del otro.
    Puntualización

    Sin embargo, desenredar completamente la cadena de suministro global impondría enormes costos (o costes, como se emplea mayoritariamente en España) económicos.

    Otros Elementos

    Además, la “carrera armada de AI” resultante intensificaría el dilema de seguridad: al eliminar los mercados como mecanismo de información, aumentaría la incertidumbre sobre las capacidades de AI de cada potencia.

  • Cooperación parcial y competencia. Los Estados Unidos y China podrían imponer controles de exportación en hardware y software selectos, al tiempo que establecen canales (véase qué es, su definición, o concepto, y su significado como “canals” en el contexto anglosajón, en inglés) bilaterales para aumentar el intercambio de información sobre las tecnologías afectadas. Esta opción mantendría los costos (o costes, como se emplea mayoritariamente en España) de desenredar el suministro global a un mínimo, al mismo tiempo que limitaría la dependencia potencial de la transferencia de tecnología para tecnologías de IA críticas.

Cada opción está lejos de ser ideal. La cooperación total no es iniciadora, ya que Estados Unidos y China desconfían demasiado de las intenciones del otro para arriesgarse a volverse más dependientes de la tecnología del otro, y mucho menos permitir una mayor transferencia de tecnología al otro. Del mismo modo, la competencia total no es factible, ya que ninguno de los países puede pagar los costos (o costes, como se emplea mayoritariamente en España) de desacoplar completamente las cadenas de suministro, especialmente a corto plazo. Mientras tanto, la cooperación y la competencia parciales se arriesgan a ser demasiado inteligentes a la mitad, especialmente si los controles de exportación se aplican ad hoc.

La cooperación parcial y la competencia, a pesar de sus riesgos, es la peor opción. (Tal vez sea de interés más investigación sobre el concepto). El desafío será encontrar un principio rector de por qué algunas tecnologías de doble uso están restringidas y otras no. Una posibilidad es aprovechar la distinción entre el consumo y la producción de AI. Estados Unidos y China podrían permitir un comercio relativamente libre en términos de aplicaciones de AI, por ejemplo, al tiempo que imponen estrictas restricciones de exportación al hardware que se requerirá para producir esas aplicaciones., como los chips neuromórficos y las computadoras cuánticas que serán parte integral de su uso.

La cooperación parcial y la competencia de ninguna manera serían una panacea.Si, Pero: Pero una carrera de armamentos limitada de AI es mucho más preferible que una total, y minimizaría el riesgo de que el dilema de seguridad más amplio entre China y Estados Unidos se convierta en un verdadero conflicto armado.

Autor: Williams

La Inteligencia Artificial y la Competencia Internacional

A principios de septiembre de 2017, el presidente ruso Vladimir Putin llevó la inteligencia artificial de los laboratorios de Silicon Valley, la academia y el sótano del Pentágono a la vanguardia de la política internacional. “La inteligencia artificial es el futuro, no solo para Rusia, sino para toda la humanidad”, dijo. “Viene con oportunidades colosales, pero también amenazas que son difíciles de predecir. Quienquiera que se convierta en el líder en esta esfera se convertirá en el gobernante del mundo “. 1

Los comentarios de Putin reflejan una creencia, que crece en sectores y regiones de todo el mundo, de que los avances en inteligencia artificial serán críticos para el futuro, en áreas tan variadas como el trabajo, la sociedad y el poder militar. La inteligencia artificial es un elemento crítico de lo que Klaus Schwab, jefe del Foro Económico Mundial, llama la Cuarta Revolución Industrial (véase también sus consecuencias y la industrialización). 2 Eric Schmidt, el ex director general de Google, sostiene que la inteligencia artificial es tan importante para el futuro del poder que Estados Unidos necesita una estrategia nacional sobre inteligencia artificial, al igual que tuvo una para el desarrollo de tecnología espacial durante la Guerra Fría. 3 Elon Musk, el jefe de Tesla y SpaceX, incluso ha dicho que el crecimiento de la tecnología de inteligencia artificial, si no se controla, podría provocar un incendio en la Tercera Guerra Mundial.4 Estas declaraciones sugieren que la inteligencia artificial tendrá una gran influencia potencialmente determinista en la política global y el equilibrio de poder. 5

Ya sea que la inteligencia artificial tenga consecuencias revolucionarias o simplemente efectos incrementales, es fundamental comprender cómo y por qué podría importar en el ámbito de la seguridad nacional. A pesar de una ola de artículos sobre inteligencia artificial en la prensa popular y revistas comerciales, ha habido menos en el trabajo académico sistemático sobre las consecuencias para la seguridad nacional de tales desarrollos. Este artículo intenta llenar ese vacío al examinar los efectos en la seguridad nacional de la inteligencia artificial estrecha, o los sistemas diseñados para realizar tareas deliberadamente restringidas, como la versión de Jeopardy de IBM Watson o AlphaGo, diseñada para jugar el juego de mesa Go. Específicamente, evalúa los problemas que AI puede plantear para el equilibrio de poder y la competencia internacional a través de la lente de la investigación académica sobre innovación militar.

La escritura (su redacción) popular sobre la IA tiende a centrarse casi exclusivamente en el desarrollo de la tecnología. La tecnología ha desempeñado un papel vital en la configuración de la política global a lo largo de la historia. Hace 6 años, tecnologías como la imprenta permitieron que la palabra escrita floreciera. Estos establecen el escenario para nuevas formas de protesta política y actividad. 7 En el siglo XX, las armas nucleares aumentaron significativamente las capacidades destructivas de numerosos países. 8

Sin embargo, el impacto relativo del cambio tecnológico a menudo depende tanto o más de cómo las personas, las organizaciones y las sociedades adopten y utilicen las tecnologías como lo hace en las características básicas de la tecnología. 9 Considere el portaaviones, que la Armada británica inventó en 1918. Como la mejor del mundo en el uso de acorazados, la Royal Navy imaginó inicialmente la utilidad de los portaaviones como aviones para servir como observadores para el acorazado.

Puntualización

Sin embargo, las armadas japonesa y estadounidense innovaron utilizando el portaaviones como aeródromo móvil, que transformó fundamentalmente la guerra naval en el siglo XX. 10O bien, considere nuevamente la imprenta: su papel en la aceleración de los movimientos políticos nacionalistas dependía de los incentivos que originalmente motivaron a esos movimientos y la capacidad de los movimientos para aprovechar la capacidad de la nueva tecnología para difundir información. (Tal vez sea de interés más investigación sobre el concepto).

¿Qué papel jugará la inteligencia artificial? En muchos sentidos, es demasiado pronto para decirlo, dada la incertidumbre sobre el desarrollo de la tecnología.Si, Pero: Pero la IA parece mucho más parecida al motor de combustión interna o la electricidad que un arma. Es un habilitador, una tecnología de propósito general con una multitud de aplicaciones. Eso hace que la IA sea diferente y más amplia que un misil, un submarino o un tanque.

Los avances en la IA restringida podrían crear desafíos y oportunidades para los gobiernos y las organizaciones militares. Por ejemplo, las aplicaciones de IA limitadas, como el reconocimiento de imágenes, ayudarían a aquellos militares que ya son ricos y poderosos y que pueden permitirse mantenerse al día. Es más difícil predecir cómo las aplicaciones de la IA podrían afectar el corazón de las organizaciones militares, influyendo en la planificación, así como en las cuestiones de reclutamiento, retención y estructura de la fuerza. ¿Qué sucede cuando los militares necesitan cada vez más soldados que tengan entrenamiento en codificación y que comprendan cómo funcionan los algoritmos? O si enjambre, ¿Los sistemas deshabitados hacen que las grandes plataformas militares convencionales parezcan costosas y obsoletas? Los ejércitos líderes a menudo luchan frente a innovaciones organizacionales disruptivas porque es difícil defender el caso burocrático de cambio cuando un militar se percibe a sí mismo como líder.

Lo que los países se beneficien de la IA dependerá en parte de la procedencia de las innovaciones militarmente relevantes.

Más Información

Las instituciones no militares, como las empresas privadas y los departamentos académicos, están empujando los límites de lo que es posible en el ámbito de la inteligencia artificial. Mientras que algunas compañías de inteligencia artificial y robótica, como Boston Dynamics, reciben fondos para investigación y desarrollo militar, otras, como DeepMind, no lo hacen, y rechazan activamente participar con organizaciones militares. 12 A diferencia de la tecnología sigilosa, que tiene un propósito fundamentalmente militar, la inteligencia artificial tiene usos tan variados como compras, agricultura y comercio de acciones.

Si la inteligencia artificial impulsada comercialmente continúa fomentando la innovación, y los tipos de algoritmos que los militares podrían usar algún día están estrechamente relacionados con las aplicaciones civiles, es probable que los avances en la inteligencia artificial se difundan más rápidamente a los militares de todo el mundo. La competencia de inteligencia artificial puede presentar actores en todo el mundo que desarrollan capacidades de inteligencia artificial, al igual que la competencia de finales del siglo XIX en acero y productos químicos. El potencial de difusión haría que sea más difícil mantener las “ventajas del primer motor” en aplicaciones de inteligencia artificial estrecha. Esto podría cambiar el equilibrio de poder, reduciendo la brecha en las capacidades militares no solo entre los Estados Unidos y China sino también entre otros.

Sin embargo, los expertos no están de acuerdo con la trayectoria potencial de la tecnología, lo que significa que los pronósticos de las consecuencias de los desarrollos de la IA para el entorno de seguridad internacional son necesariamente tentativos. 13Si bien la ciencia básica que subyace a la IA es aplicable tanto para fines civiles como militares, es plausible que los usos militares específicos más importantes de la IA no sean de doble uso.

Detalles

Los avances tecnológicos que se basan más exclusivamente en la investigación militar son generalmente más difíciles de imitar. De ello se deduce que las aplicaciones militares de la IA basadas más exclusivamente en la investigación de defensa generarán mayores ventajas para los primeros usuarios en los primeros motores.

Otros Elementos

Además, si la potencia de cómputo necesaria para generar algoritmos nuevos y potentes excluye a todos los países, excepto a las empresas y países más ricos, las capacidades de inteligencia artificial de alto nivel podrían ayudar a los ricos a enriquecerse desde una perspectiva de equilibrio de poder.

Otros Elementos

Por otro lado, si los líderes militares no logran incorporar efectivamente la IA, el potencial de interrupción también sería mayor.

No está claro cómo se desarrollará todo esto en la próxima década o más. China, Rusia y otros ya están invirtiendo significativamente en IA para aumentar sus capacidades militares relativas con miras a cambiar el equilibrio de poder. A medida que el campo de la inteligencia artificial madura, y más implementaciones se vuelven plausibles en ámbitos como la logística, el personal e incluso las unidades desplegables, los países necesitarán descubrir cómo utilizar la inteligencia artificial de manera práctica para mejorar su capacidad de generar poder militar. El riesgo para los Estados Unidos en términos de equilibrio de poder, por lo tanto, radica en dar por sentada su superioridad militar y terminar como la Royal Navy de Gran Bretaña con el portaaviones a mediados del siglo XX, un innovador tecnológico que se supera cuando se trata de Adopción organizacional y uso de la tecnología.

Autor: Williams

Equilibrio de Poder

AI y el personaje de la guerra

El “carácter de la guerra” en un período puede definirse como la forma dominante de luchar y ganar conflictos, dadas las tecnologías, organizaciones y políticas existentes. El carácter de la guerra cambia en concierto con las herramientas que están disponibles y cómo influyen en la forma en que los militares se organizan para combatir guerras. También se podría argumentar que la IA tiene el potencial de ir más allá de moldear el carácter de la guerra y cambiar la naturaleza de la guerra en sí misma. Desde una perspectiva clausewitziana, esa guerra es humana define fundamentalmente su naturaleza. Carl von Clausewitz, sobre la guerratrans Michael Howard y Peter Paret (Princeton, NJ: Princeton University Press, 1989).

Una Conclusión

Por lo tanto, la naturaleza de la guerra es inmutable.Entre las Líneas En teoría, ¿podría la IA alterar la naturaleza de la guerra en sí misma porque las guerras serán combatidas por sistemas robóticos, no por personas, y por el potencial de la IA para involucrarse en la planificación (véase más en esta plataforma general) y la toma de decisiones que antes eran esfuerzos humanos? El secretario de Defensa de los Estados Unidos, James Mattis, especuló en febrero de 2018 que la IA es “fundamentalmente diferente” en formas que plantean preguntas sobre la naturaleza de la guerra. Consulte “Presione Gaggle por el secretario Mattis en ruta a Washington, DC”, Departamento de Defensa, 17 de febrero de 2018. Este es un debate importante pero más allá del alcance de este documento. Para los elementos de este debate, vea Kareem Ayoub y Kenneth Payne, “Estrategia en la Era de la Inteligencia Artificial”, Journal of Strategic Studies 39, no. 5-6 (2016): 793-819; Frank G. Hoffman, “¿Cambiará la naturaleza de la guerra en la Séptima Revolución Militar?” Parámetros 47, no. 4, (2018): 19-31. También vea Kenneth Payne, Estrategia, Evolución y Guerra: de los simios a la inteligencia artificial (Washington, DC: Georgetown University Press, 2018).

El cambio a la movilización de masas en la era napoleónica ejemplifica un desarrollo no tecnológico que cambió el carácter de la guerra.

Las aplicaciones de la IA tienen el potencial de determinar cómo los países luchan de varias maneras macro.Entre las Líneas En el nivel más amplio, los sistemas autónomos, o los sistemas de inteligencia artificial estrechos, tienen el potencial de aumentar la velocidad con la que los países pueden luchar, otra similitud más entre la inteligencia artificial y el motor de combustión. (Tal vez sea de interés más investigación sobre el concepto). Incluso si los humanos siguen tomando decisiones finales sobre el uso de la fuerza letal, luchar a la velocidad de la máquina puede aumentar dramáticamente el ritmo de las operaciones.

Existen varias aplicaciones militares de la IA actualmente en desarrollo o en discusión que pueden considerarse, aunque muchas se encuentran en etapas iniciales. Por ejemplo, algunas investigaciones muestran que la forma en que las redes neuronales pueden utilizar bases de datos de imágenes y clasificar escenas particulares (como una montaña), permite una evaluación más precisa de ubicaciones específicas.

Otros Elementos

Además, la potencia de procesamiento que es posible con los sistemas estrechos de AI tiene el potencial de aumentar la velocidad del análisis de datos, como lo pretende hacer el Proyecto Maven en los Estados Unidos.

Más Información

Las inversiones en el reconocimiento de imágenes ofrecen la esperanza de lograr resultados más rápidos y precisos que los seres humanos pueden lograr hoy en día, y es una avenida probable para la inversión continua y la aplicación (dejando a un lado las cuestiones de accidentes, la piratería y otras formas en que los sistemas podrían ir mal).

La implementación exitosa de la IA más allá de áreas como el reconocimiento de imágenes podría llevar a nuevos conceptos de operación que podrían influir en la estructura de la fuerza y ​​al empleo de la fuerza, o cómo los militares se organizan y planifican las operaciones. Una posibilidad es el uso de un gran número de plataformas más pequeñas, conocidas como enjambres, para operaciones militares.

Detalles

Los algoritmos y los sistemas de control diseñados para permitir el “enjambre” ya existen en el sector privado y en el mundo académico.

Detalles

Los algoritmos de grado militar requerirían coordinación con otros sistemas militares, incluidos aviones de alerta temprana, aviones habitados, satélites y otros sensores. Los enjambres desplegados en un entorno de combate tendrían que ser capaces de adaptarse en tiempo real para optimizar las operaciones si se derribaran algunos elementos del enjambre, un desafío que las aplicaciones comerciales no necesariamente enfrentarían. Los métodos para desarrollar algoritmos de enjambre podrían incluir árboles de comportamiento o aprendizaje profundo.

Otra aplicación potencial para la inteligencia artificial estrecha que podría moldear el carácter de la guerra es la coordinación a través de capas de algoritmos que trabajan en conjunto para ayudar a administrar operaciones complejas. Estos algoritmos podrían ser sistemas expertos que generan árboles de decisión. (Tal vez sea de interés más investigación sobre el concepto). O podrían involucrar algoritmos desarrollados a través de redes adversas generativas.Entre las Líneas En este enfoque, los algoritmos compiten entre sí para enseñarse unos a otros cómo realizar diversas tareas. Algunos algoritmos necesitarán ser entrenados para ayudar a coordinar múltiples activos militares, tanto humanos como mecánicos.Entre las Líneas En ese caso, el aprendizaje adverso podría ayudar a compensar el carácter único de la toma de decisiones en batallas individuales y el problema de aprender a adaptarse más allá de los datos de entrenamiento disponibles.

La capacidad de operar más rápido a través de algoritmos que ayudan a los comandantes humanos a optimizar los planes de batalla, incluidas las operaciones en tiempo real, podría cambiar el empleo de la fuerza y ​​la estructura de la fuerza, especialmente en el aire y el mar. Desde la Segunda Guerra Mundial, los militares modernos se han involucrado en un cambio de cantidad a calidad en los sistemas militares. La idea es que un número menor de sistemas costosos y de alta calidad es más probable que conduzca a la victoria en las batallas. AI podría acelerar las tendencias que desafían estos imperativos de estructura de fuerza de larga duración, como la necesidad de derrotar a los adversarios con redes avanzadas de acceso, denegación de área (A2 / AD) con costos (o costes, como se emplea mayoritariamente en España) tolerables.

Si los algoritmos y la coordinación a la velocidad de la máquina se vuelven críticos para el éxito en el campo de batalla, las plataformas caras y de alta calidad podrían volverse vulnerables a los enjambres de sensores y las plataformas de armas de bajo costo (o coste, como se emplea mayoritariamente en España) que están conectadas en red de manera efectiva. Así pues, AI podría ayudar a devolver la cantidad a la ecuación en forma de grandes números de sistemas robóticos.

Puntualización

Sin embargo, en el corto y mediano plazo, el uso óptimo de la IA puede consistir en aprovechar el aprendizaje automático para mejorar el rendimiento (véase una definición en el diccionario y más detalles, en la plataforma general, sobre rendimientos) de las plataformas existentes.

Existen incentivos para casi todos los tipos de regímenes políticos para desarrollar aplicaciones de inteligencia artificial para fines militares. Para las democracias, la IA puede disminuir la carga relativa de la guerra en la población y reducir el riesgo para los soldados, incluso más que con los sistemas controlados a distancia, al reducir el uso de personal. Para las autocracias, que no confían en su gente en primer lugar, la capacidad de subcontratar algunos elementos de la toma de decisiones militares a algoritmos, reduciendo la dependencia de los humanos para luchar en guerras, es intrínsecamente atractiva.

Política organizacional e inteligencia artificial

A pesar de la incertidumbre acerca de las aplicaciones militares específicas de la IA, los ejemplos de cómo se puede utilizar la IA en un contexto militar descrito anteriormente revelan que estas capacidades tienen el potencial de alterar significativamente las estructuras organizativas. Tome el ejemplo de la coordinación del manejo de la batalla (ya sea en equipos humano-máquina o no): el funcionamiento exitoso de sistemas de manejo de batalla semi-autónomos probablemente requiera nuevas especialidades ocupacionales y cambios en el reclutamiento, entrenamiento y promoción para capacitar a los individuos que entienden a ambos militares. Operaciones y cómo funcionan los sistemas de IA particulares. Rosen muestra que modificar la promoción del personal militar para capacitar a quienes tienen experiencia en nuevas áreas es fundamental para adoptar innovaciones militares en general. La IA no debería ser una excepción. (Tal vez sea de interés más investigación sobre el concepto).

▷ Lo último (en 2026)
▷ Si te gustó este texto o correo, considera compartirlo con tus amigos. Si te lo reenviaron por correo, considera suscribirte a nuestras publicaciones por email de Derecho empresarialEmprenderDineroMarketing digital y SEO, Ensayos, PolíticasEcologíaCarrerasLiderazgoInversiones y startups, Ciencias socialesDerecho globalHumanidades, Startups, y Sectores económicos, para recibir ediciones futuras.

Como se describió anteriormente, el uso de sistemas de inteligencia artificial en el nivel operacional podría generar opciones sobre cómo los militares se organizan y planean usar la fuerza, debido a la posibilidad de usar un mayor número de sistemas en red que operan a la velocidad de la máquina en lugar de depender exclusivamente de pequeños números de alto nivel. – Aeronaves habitadas de calidad.

Puntualización

Sin embargo, la implementación de tales conceptos podría requerir cambios organizativos disruptivos que podrían amenazar con cambiar qué ocupaciones militares proporcionan el estatus más alto y son puertas de acceso a los roles de liderazgo. Esto ya se puede ver con la Fuerza Aérea, dominada por pilotos de caza, que ha sido relativamente indecisa cuando se trata de inversiones en vehículos aéreos deshabitados. También desafiaría las nociones burocráticas arraigadas sobre cómo pesar la cantidad en comparación con la calidad. Adoptar la IA restringida de la manera más óptima podría resultar un desafío para los principales militares, que necesitarán personal capacitado que pueda hacer el aseguramiento de la calidad y la confiabilidad de las aplicaciones de la IA para garantizar su uso adecuado y efectivo.

Otras aplicaciones, como el Proyecto Maven en el Departamento de Defensa de EE. UU., Son más fáciles de implementar porque son tecnologías sostenibles desde la perspectiva de la literatura sobre innovación organizativa. 86Los sistemas autónomos que pueden procesar de forma rápida y precisa las imágenes de aviones no tripulados no interrumpen las especialidades ocupacionales militares de alto estatus, ni alteran la forma en que los servicios militares operan en conjunto. Es cuando los usos óptimos de la IA estrecha requieren grandes cambios para forzar la estructura que los requisitos de adopción, y los cuerpos burocráticos, aumentan. Un ejemplo de resistencia burocrática que impide la producción de una nueva tecnología que podría haber resultado perjudicial es el hecho de que el ejército de EE. UU. no financie el avión no tripulado X-47B, un sistema de próxima generación que podría despegar y aterrizar en portaaviones de forma autónoma. Esto ilustra la manera en que la política burocrática y la competencia organizacional pueden obstaculizar la adopción de tecnologías innovadoras.

La cultura estratégica u organizativa de un militar o sociedad también puede indicar cuál será la mejor posición para explotar los avances potenciales en IA, específicamente, qué tan abiertas están esas culturas a la innovación. (Tal vez sea de interés más investigación sobre el concepto). Por supuesto, existe un riesgo de tautología en los argumentos culturales, ya que puede ser difícil medir si una organización es capaz de adoptar una tecnología hasta que haya intentado hacerlo o lo haya hecho.

Puntualización

Sin embargo, el trabajo de Emily Goldman sobre el Imperio Otomano sugiere el valor de desarrollar métricas de apertura cultural cuando se trata de predecir la disposición a experimentar y adoptar sistemas de inteligencia artificial.

Curiosamente, las normas relativas a la estructura de la fuerza también podrían desempeñar un papel en la inhibición del uso de la inteligencia artificial para ciertas tareas militares. Como muestra la investigación de Theo Farrell sobre el ejército irlandés después de la independencia, los militares a menudo imitan la forma funcional de actores más poderosos, incluso cuando hacerlo no les interesa. Aplicando su percepción en el caso de la inteligencia artificial, es probable que algunos militares usen la IA en formas que son organizativamente perjudiciales, especialmente si hacerlo implicaría cambios en la estructura de la fuerza visible, como un movimiento de pequeñas cantidades de aeronaves habitadas avanzadas a Enjambre conceptos que utilizan aviones más baratos, más desechables.

Los argumentos sobre la cultura organizativa y estratégica son generalmente consistentes con la teoría de la capacidad de adopción, ya que ambos se enfocan en los desafíos que presentan las innovaciones cuando interrumpen la identidad de una organización. (Tal vez sea de interés más investigación sobre el concepto). Después de todo, los militares que ya gastan mucho en investigación y desarrollo, que son más jóvenes y que tienen concepciones amplias de su tarea crítica tienen más probabilidades de ser culturalmente “abiertos” y capaces de adoptar nuevas tecnologías o innovaciones completas más adelante en el desarrollo en línea.

La difusión de la IA de relevancia militar: dos escenarios

Hay una pregunta fundamental sobre hasta qué punto los usos militarmente relevantes de la IA estrecha se difundirán fácilmente. Responder a esta pregunta es necesario para predecir las ventajas del primer movimiento asociado (véase qué es, su concepto jurídico; y también su definición como “associate” en derecho anglo-sajón, en inglés) con una innovación tecnológica, que a su vez ayuda a determinar su impacto relativo en el equilibrio de poder y guerra. Para determinar con qué facilidad se difundirá una nueva tecnología, la teoría de la capacidad de adopción sugiere considerar el costo (o coste, como se emplea mayoritariamente en España) unitario de la tecnología, especialmente el hardware físico.

Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):

El diseño de capacidades de inteligencia artificial requiere software y hardware. Esto influye en cómo pensar sobre el “costo unitario” de la IA. Las capacidades militares basadas en hardware a menudo se propagan más lentamente que las basadas en software, lo que genera una ventaja más sostenible para el primer adoptante de una capacidad dada, especialmente cuando los costos (o costes, como se emplea mayoritariamente en España) unitarios de esa capacidad son relativamente altos. El alto costo (o coste, como se emplea mayoritariamente en España) unitario de los portaaviones de superficie plana, por ejemplo, significa que solo los países ricos y poderosos los adoptan. 92

Cuando se trata de plataformas, los algoritmos son software en lugar de hardware. Tomemos el ejemplo del MQ-9 Reaper, un drone armado militar de los EE. UU. De la generación actual. El MQ-9 se controla de forma remota, lo que significa que un piloto en otra ubicación dirige la estructura del avión y toma decisiones sobre el disparo de armas contra posibles objetivos. La diferencia entre esto y una versión autónoma que es pilotada y operada por un algoritmo es el software. Desde el exterior, la plataforma se vería igual.

Pero, si la inteligencia artificial limitada es un software desde la perspectiva de la tecnología militar, es un software que requiere un hardware considerable para su creación. (Tal vez sea de interés más investigación sobre el concepto). Los costos (o costes, como se emplea mayoritariamente en España) de hardware asociados, especialmente para aplicaciones avanzadas de IA estrechas, son potencialmente significativos. Cuanto más complejo sea el algoritmo, más hardware de computación inicial se requiere para “entrenar” ese algoritmo.

Una Conclusión

Por lo tanto, los líderes de la investigación académica y de la IA académica tienen que invertir en teraflops de potencia informática. Este es un tipo diferente de hardware que un tanque o un misil de crucero, pero es el hardware de todos modos. Los rápidos avances en IA a través del aprendizaje profundo y las redes neuronales en la última década han requerido avances en el hardware de computación. (Tal vez sea de interés más investigación sobre el concepto). Joel Emer, profesor de ingeniería eléctrica y ciencias de la computación en el MIT, lo dice claramente: “Muchos logros de la IA se hicieron posibles gracias a los avances en hardware”. Después de que un algoritmo ha sido entrenado, se puede aplicar sin acceso a esa informática entorno, y la potencia necesaria para ejecutar algoritmos completados se reduce dramáticamente.

La rapidez con la que las capacidades de la IA se difundirán a través de la invención o el mimetismo simultáneos dependerá, en parte, de la disponibilidad de la potencia de cálculo. Si el costo (o coste, como se emplea mayoritariamente en España) de la potencia de computación continúa disminuyendo a medida que los chips se vuelven más eficientes, entonces los países que ya cuentan con compañías de tecnología avanzada tendrán más acceso a las capacidades de IA más rápido que otros países sin ese tipo de compañías de tecnología.

Por otra parte, si los costos (o costes, como se emplea mayoritariamente en España) de hardware de desarrollar algoritmos complejos continúan por encima de la capacidad de las empresas en la mayoría de los países, la difusión se producirá deliberadamente, como por ejemplo a través de acuerdos comerciales o bilaterales a nivel nacional o por espionaje (es decir, seco). Esto probablemente ralentizaría la difusión de la mayoría de los avances de la IA, aumentando las ventajas para los innovadores.

Determinar hasta qué punto las aplicaciones militarmente relevantes de la IA se basan en tecnología comercial en comparación con la investigación exclusivamente militar también es una cuestión crítica planteada por la teoría de la capacidad de adopción. (Tal vez sea de interés más investigación sobre el concepto). Si bien es difícil saber la respuesta en este momento, el examen de ambos escenarios ilustrará cómo esa respuesta podría configurar la manera en que la IA afecta el equilibrio de poder y la estructura de la competencia internacional.

IA militarmente exclusiva

La alternativa a las aplicaciones militares de la IA que se basan en desarrollos comerciales es un mundo en el que las aplicaciones militares de la IA se basan en investigaciones que solo son aplicables a los militares. Copiar las innovaciones tecnológicas de tecnologías “excluibles”, aquellas que no se basan en una tecnología comercial ampliamente disponible, requiere espionaje para robar la tecnología (como hicieron los soviéticos con la bomba atómica) o el mimetismo basado en principios observables de la tecnología. La cuestión del robo de algoritmos plantea cuestiones de ciberseguridad. Esto difiere de las preguntas más comunes sobre si las armas cibernéticas son armas autónomas. Sobre el ciberespacio en general, ver Thomas Rid, Rise of the Machines: A Cybernetic History (Nueva York: WW Norton, 2016); Rebecca Slayton, “¿Qué es el equilibrio de defensa cibernética-cibernética? Concepciones, causas y evaluación”, Seguridad Internacional 41, no. 3 (2017): 72-109; Ben Buchanan, El dilema de la ciberseguridad: piratería, confianza y miedo entre las naciones (Oxford: Oxford University Press, 2017); Nina Kollars, “El ascenso de las máquinas inteligentes”, en el Manual de Seguridad, Riesgo e Inteligencia de Palgraveed. Robert Dover, Huw Dylan y Michael Goodmans (Londres: Palgrave MacMillan, 2016), 195-211.

Sin embargo, hay varias razones para pensar que muchas aplicaciones militares de IA estrecha serán únicas en formas que las harán más difíciles de copiar.

Primero, la complejidad de los sistemas militares avanzados puede hacer que la emulación sea costosa y difícil. Esto es especialmente cierto cuando varios componentes no están disponibles en el mercado comercial y la capacidad de construirlos depende, en parte, de la información clasificada. 106 Lo mismo puede decirse también de algunas tecnologías comerciales avanzadas, por supuesto, pero esta no es la norma. La incapacidad de adaptar los algoritmos comerciales para algunos propósitos militares podría limitar la capacidad de la mayoría de los estados para producir capacidades militares relevantes basadas en la IA, incluso si tienen sectores de IA comerciales avanzados. También podría significar que los desafíos de integración de sistemas para el uso de algoritmos militarmente relevantes son lo suficientemente grandes como para disuadir a muchos militares de invertir fuertemente.

Independientemente de la incertidumbre acerca de cómo los avances específicos de la IA se traducirán en capacidades militares, es posible que algunas de las aplicaciones militares más importantes de la IA estrecha, aquellas con un impacto potencialmente importante en operaciones militares a gran escala, no tengan contrapartes civiles obvias.

Detalles

Los algoritmos de gestión de batalla que coordinan una operación militar a la velocidad de la máquina no tienen necesariamente análogos comerciales, incluso si están supervisados ​​por un ser humano con autoridad de comando, excluyendo el desarrollo de una IA estrecha diseñada, por ejemplo, para ejecutar una fábrica o un sistema operativo de arriba a abajo.Entre las Líneas En estas áreas, los algoritmos de grado militar pueden requerir avances conceptuales que otros países pueden encontrar difíciles de imitar rápidamente.

📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:

Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.

En segundo lugar, algunas aplicaciones militares de inteligencia artificial, como el reconocimiento de imágenes, tienen contrapartes comerciales obvias.

Puntualización

Sin embargo, incluso en esos casos, las preocupaciones y la confiabilidad de la seguridad cibernética asociadas con la tecnología de grado militar pueden diferir de las de las aplicaciones civiles. Los sistemas militares de inteligencia artificial desplegados en el campo pueden requerir un endurecimiento para la guerra electrónica y protecciones adicionales contra la falsificación y el pirateo que serían relativamente menos preocupantes en el mundo civil.Entre las Líneas En entornos militares, los esfuerzos de los adversarios por piratear y falsificar aumentan la necesidad de seguridad.

El potencial de los países para tener sectores de investigación de IA comerciales fuertes puede significar que incluso los desarrollos de IA estrechos con aplicaciones orientadas al uso militar pueden ser más fáciles de imitar que, digamos, la tecnología de sigilo ha estado en la última generación. (Tal vez sea de interés más investigación sobre el concepto).Si, Pero: Pero el sigilo es un caso atípico: ha resultado excepcionalmente difícil de copiar en relación con otras tecnologías militares en los últimos cientos de años.

Para los desarrollos de AI que no tienen análogos comerciales claros, podría haber ventajas sustanciales para los militares que adoptan rápidamente las tecnologías de AI, especialmente si pueden lograr avances impulsados ​​por computación que son difíciles de copiar. ¿Qué significaría esto para la competición de IA? Como se describió anteriormente, la estrategia de AI de China resalta la forma en que muchos países ven cada vez más a la IA como una competencia global que involucra a los estados-nación, en lugar de un mercado en el que las empresas pueden invertir. Como escribe Elsa Kania, el Ejército Popular de Liberación (EPL) está financiando una amplia gama de proyectos que involucran a AI, y la industria de defensa china y los institutos de investigación PLA están llevando a cabo una extensa investigación y desarrollo, en algunos casos asociándose con empresas privadas.

Adoptar tecnologías de inteligencia artificial exclusivas militarmente también podría generar una presión organizativa significativa sobre los militares. Incluso si fuera difícil para la mayoría de los países ser seguidores rápidos, o imitar los avances de otros militares, la competencia de grandes potencias en la IA generaría riesgo para aquellas potencias que no pueden adaptarse para explotar organizativamente los avances en la IA, incluso si Son capaces de hacer avances técnicos. Tradicionalmente, este riesgo es mayor para la principal potencia militar del mundo, en este caso los Estados Unidos. Las potencias militares líderes a menudo tienen dificultades para imaginar cómo usar las nuevas tecnologías de manera que sean organizativamente perjudiciales. También pueden ser personas con discapacidad visual a ese hecho, creyendo que están a la cabeza hasta el punto en que su fracaso de la creatividad es importante.

Desde una perspectiva de equilibrio de poder, este escenario tendría más probabilidades de presentar una interrupción entre las potencias emergentes y grandes, pero no una nivelación más amplia del campo de juego militar. La capacidad de excluir a muchos países de los avances en IA concentraría la competencia militar entre los principales ejércitos actuales, como los Estados Unidos, China y Rusia.

Puntualización

Sin embargo, podría haber una interrupción significativa dentro de esas categorías. Un ejército chino que desarrolló más rápidamente algoritmos críticos para un manejo más amplio de la batalla, o que estaba más dispuesto a usarlos que los Estados Unidos, podría obtener ventajas que cambiarían el poder en Asia-Pacífico. Esto supone que estos algoritmos operan como están diseñados para funcionar. Toda IA ​​militarmente útil tendrá que ser endurecida contra la piratería y la falsificación.

Si bien esta discusión se ha centrado en aplicaciones limitadas de IA, la noción de competencia bilateral en AI puede ser más apremiante cuando se piensa en inteligencia general artificial. Si bien la inteligencia general artificial está más allá del alcance de este documento, importaría como un punto competitivo discreto solo si hay una clara recompensa por ser el primero, en lugar de ser un seguidor rápido. Por ejemplo, el desarrollo de inteligencia general artificial primero podría bloquear el liderazgo (véase también carisma) económico o militar. Entonces, otros no tendrían la capacidad de adoptarlo ellos mismos, o sus adopciones serían de alguna manera menos relevantes, y eso podría ser un “punto final” discreto para la competencia.

Puntualización

Sin embargo, parece poco probable que ese desarrollo sea tan discreto o que un país obtenga una ventaja en esta tecnología que es tan grande que puede consolidar el impacto de ser un primer impulsor antes de que otros se pongan al día.

Autor: Williams

▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
▷ Lee Gratis Nuestras Publicaciones
,Si este contenido te interesa, considera recibir gratis nuestras publicaciones por email de Derecho empresarial, Emprender, Dinero, Políticas, Ecología, Carreras, Liderazgo, Ciencias sociales, Derecho global, Marketing digital y SEO, Inversiones y startups, Ensayos, Humanidades, y Sectores económicos, en Substack.

4 comentarios en «Inteligencia Artificial en la Seguridad Pública»

  1. Creo que la innovación tecnológica en la IA podría tener consecuencias a gran escala para el equilibrio global del poder. Cualquiera que sea la combinación de AI de doble uso o AI exclusiva militarmente que termine configurando a los ejércitos modernos en las próximas décadas, es probable que los requisitos de adopción organizacional sean significativos. Militares de todo el mundo tendrán que lidiar con cómo cambiar las políticas de reclutamiento y promoción para capacitar a los soldados que entienden los algoritmos y la codificación.

    Responder
  2. Algunos podrían argumentar que es necesario que los Estados Unidos desarrollen y anuncien una estrategia de inteligencia artificial formal similar a la de China. Si bien hay muchos incentivos del sector privado para el desarrollo de la tecnología de inteligencia artificial, solo el gobierno puede coordinar las inversiones de inteligencia artificial y garantizar el desarrollo de implementaciones particulares que considere críticas para el liderazgo de inteligencia artificial.

    Por otro lado, es el mercado libre en los Estados Unidos y sus conexiones con la economía global, lo que ha hecho de los Estados Unidos un motor de innovación global. Las economías de planificación más central a menudo han luchado con la innovación. Durante la Guerra Fría, la base industrial y militar de la defensa soviética demostraron ser efectivas para perfeccionar las tecnologías existentes o adoptar tecnologías. Sin embargo, el sistema soviético centralizado hizo más difícil la verdadera innovación.

    Responder
  3. El sector de defensa puede ser diferente, sin embargo. Para los Estados Unidos, dependerá del Departamento de Defensa delinear claramente qué tipos de tecnologías de IA son más útiles y sembrar la investigación y el desarrollo para convertir esas tecnologías en una realidad. Para cualquier estrategia, tanto para los Estados Unidos como para China, un desafío principal será traducir la investigación básica en programas de registro en capacidades reales. Mientras Cummings escribe sobre agencias gubernamentales que trabajan en sistemas de inteligencia artificial en todo el mundo, “[L] as agencias que desarrollan estas tecnologías están luchando para dar el salto del desarrollo a la implementación operativa”.

    En términos más generales, si invertir en el uso adecuado de la IA es crítico para el poder militar en el siglo XXI, el enfoque de los Estados Unidos es un conjunto mixto. Los optimistas pueden apuntar a inversiones para conectar la investigación de vanguardia con las fuerzas militares de EE. UU. a través de instituciones como la Unidad de Innovación en Defensa – Experimental (DIUx), la Oficina de Capacidades Estratégicas y la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA). Desde las discusiones de la “Tercera compensación” hasta la “Batalla de dominios múltiples”, los líderes militares y civiles de alto rango también están tomando en serio el desafío de la IA.

    Responder
  4. Mientras tanto, se está produciendo una gran cantidad de innovación ascendente en el ejército de los EE. UU., tanto en términos de desarrollar tecnologías como de experimentar con nuevos conceptos de operación. Es posible que la investigación y los programas experimentales más pequeños que financia Estados Unidos se conviertan en parte de los programas militares de los Estados Unidos, lo que permitirá a Estados Unidos mantenerse a la vanguardia y mantener su superioridad militar. Si la IA estrecha continúa desarrollándose, la adopción de la tecnología requerirá una atención sostenida por parte de los líderes principales.

    Sin embargo, al final del día, el efecto de la inteligencia artificial en la política internacional dependerá de mucho más que las elecciones sobre un programa militar en particular. El desafío para los Estados Unidos será calibrar, en función de las tendencias en los desarrollos de inteligencia artificial, la rapidez con la que se incorporarán las aplicaciones limitadas de inteligencia artificial. Esto será cierto si esas aplicaciones son de doble uso o se basan en investigaciones exclusivamente militares. Y ese desafío al liderazgo en la IA en general, así como en el poder militar, se complica por los movimientos de China y otros competidores, todos los cuales parecen interesados ​​en aprovechar la IA para desafiar la superioridad militar de los Estados Unidos.

    Responder

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

▷ Recibe gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Dinero, Políticas, Ecología, Liderazgo, Marketing digital, Startups, Ensayos, Ciencias sociales, Derecho global, Humanidades, y Sectores económicos, en Substack. Cancela cuando quieras.

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo