Michael Klare, Foreign Policy in Focus, 14 julio 2023
Traducido del inglés por Sinfo Fernández

Michael T. Klare es profesor emérito de estudios sobre la paz y la seguridad mundial en el Hampshire College y miembro visitante de la Arms Control Association. Es autor de 15 libros, el último de los cuales es All Hell Breaking Loose: The Pentagon’s Perspective on Climate Change. Es uno de los fundadores del Committee for a Sane U.S.-China Policy.
Un mundo en el que las máquinas gobernadas por inteligencia artificial (IA) sustituyan sistemáticamente a los seres humanos en la mayoría de las funciones empresariales, industriales y profesionales resulta horripilante de imaginar. Al fin y al cabo, como nos han advertido destacados informáticos, los sistemas gobernados por la IA son propensos a errores críticos y «alucinaciones» inexplicables, lo que provoca resultados potencialmente catastróficos. Pero la proliferación de máquinas superinteligentes plantea un escenario aún más peligroso: la posibilidad de que esas entidades no humanas acaben luchando entre sí, aniquilando toda vida humana en el proceso.
La noción de que los ordenadores superinteligentes podrían desbocarse y masacrar a los humanos ha sido, por supuesto, un elemento básico de la cultura popular desde hace mucho tiempo. En la profética película de 1983 «Juegos de guerra«, un superordenador conocido como WOPR (de War Operation Plan Response y, como es lógico, pronunciado «whopper«) casi provoca una catastrófica guerra nuclear entre Estados Unidos y la Unión Soviética antes de ser desactivado por un hacker adolescente (interpretado por Matthew Broderick). La franquicia cinematográfica «Terminator«, que comenzó con la película original de 1984, también imaginaba un superordenador autoconsciente llamado «Skynet» que, al igual que WOPR, estaba diseñado para controlar las armas nucleares de Estados Unidos, pero que en su lugar opta por acabar con la humanidad, al considerarnos una amenaza para su existencia.
La idea de que los superordenadores maten a los seres humanos, aunque antaño se circunscribía al ámbito de la ciencia ficción, se ha convertido en una clara posibilidad en el mundo real de un futuro próximo. Además de desarrollar una amplia variedad de dispositivos de combate «autónomos» o robotizados, las principales potencias militares también se están apresurando a crear sistemas automatizados de toma de decisiones en el campo de batalla, o lo que podríamos llamar «generales robot«. En las guerras de un futuro no muy lejano, estos sistemas potenciados por IA podrían desplegarse para dar órdenes de combate a los soldados estadounidenses, dictándoles dónde, cuándo y cómo matar a las tropas enemigas o recibir disparos de sus oponentes. En algunos escenarios, los robots encargados de tomar decisiones podrían incluso llegar a controlar las armas atómicas de Estados Unidos, permitiéndoles desencadenar una guerra nuclear que acabara con la humanidad.
Ahora, respiren un momento. La instalación de un sistema de mando y control (C2) potenciado por IA como éste puede parecer una posibilidad lejana. Sin embargo, el Departamento de Defensa de EE. UU. está trabajando duro para desarrollar el hardware y el software necesarios de forma sistemática y cada vez más rápida. En su presupuesto para 2023, por ejemplo, las Fuerzas Aéreas solicitaron 231 millones de dólares para desarrollar el Sistema Avanzado de Gestión del Campo de Batalla (ABMS, por sus siglas en inglés), una compleja red de sensores y ordenadores dotados de inteligencia artificial diseñados para recopilar e interpretar datos sobre las operaciones del enemigo y proporcionar a los pilotos y a las fuerzas terrestres un menú de opciones de ataque óptimas. A medida que avance la tecnología, el sistema será capaz de enviar instrucciones de «fuego» directamente a los «tiradores», eludiendo en gran medida el control humano.
«Will Roper, Subsecretario de Adquisiciones, Tecnología y Logística de las Fuerzas Aéreas, describió el sistema ABMS en una entrevista realizada en 2020. Tras sugerir que «tendremos que cambiar el nombre» a medida que evolucione el sistema, Roper añadió: «Creo que Skynet está descartado, por mucho que me encantaría hacerlo como algo de ciencia ficción. No creo que podamos llegar a eso».
Y aunque él no pueda ir allí, es justo hacia donde el resto de nosotros puede, de hecho, estar yendo.
Eso es sólo el principio. De hecho, el ABMS de las Fuerzas Aéreas está destinado a constituir el núcleo de una constelación mayor de sensores y ordenadores que conectará a todas las fuerzas de combate de Estados Unidos, el Sistema Conjunto de Mando y Control de Todos los Dominios (JADC2, pronunciado «Jad-C-two«). «JADC2 pretende permitir a los comandantes tomar mejores decisiones mediante la recopilación de datos de numerosos sensores, el procesamiento de los datos utilizando algoritmos de inteligencia artificial para identificar objetivos, y luego recomendar el arma óptima… para atacar el objetivo», informó el Servicio de Investigación del Congreso en 2022.
La IA y el gatillo nuclear
Inicialmente, el JADC2 se diseñará para coordinar las operaciones de combate entre las fuerzas estadounidenses «convencionales» o no nucleares. Con el tiempo, sin embargo, se espera que se conecte con los sistemas de mando, control y comunicaciones nucleares del Pentágono (NC3), lo que podría dar a los ordenadores un control significativo sobre el uso del arsenal nuclear estadounidense. «El JADC2 y el NC3 están entrelazados», indicó el general John E. Hyten, vicepresidente del Estado Mayor Conjunto, en una entrevista realizada en 2020. Como resultado, añadió en típico pentagonés, «NC3 tiene que informar a JADC2 y JADC2 tiene que informar a NC3».
No hace falta mucha imaginación para pensar un momento en un futuro no muy lejano en el que una crisis de algún tipo -por ejemplo, un enfrentamiento militar entre Estados Unidos y China en el Mar del Sur de China o cerca de Taiwán- provoque combates cada vez más intensos entre las fuerzas aéreas y navales enfrentadas. Imaginemos entonces que el JADC2 ordena el bombardeo intenso de bases y sistemas de mando enemigos en la propia China, lo que desencadena ataques recíprocos contra instalaciones estadounidenses y una decisión relámpago del JADC2 de tomar represalias con armas nucleares tácticas, desencadenando un holocausto nuclear largamente temido.
La posibilidad de que escenarios de pesadilla de este tipo puedan desembocar en el inicio accidental o involuntario de una guerra nuclear preocupa desde hace tiempo a los analistas de la comunidad de control de armamentos. Pero la creciente automatización de los sistemas militares C2 ha generado ansiedad no solo entre ellos, sino también entre los altos funcionarios de seguridad nacional.
Ya en 2019, cuando pregunté al teniente general Jack Shanahan, entonces director del Centro Conjunto de Inteligencia Artificial del Pentágono, sobre una posibilidad tan arriesgada, respondió: «No encontrará un defensor más firme de la integración de las capacidades de IA escritas en grande en el Departamento de Defensa, pero hay un área en la que me detengo, y tiene que ver con el comando y control nuclear.» Esta «es la última decisión humana que hay que tomar» y por eso «tenemos que ser muy cuidadosos». Dada la «inmadurez» de la tecnología, añadió, necesitamos «mucho tiempo para probar y evaluar [antes de aplicar la IA al NC3]».
En los años transcurridos desde entonces, a pesar de estas advertencias, el Pentágono ha seguido adelante con el desarrollo de sistemas C2 automatizados. En su propuesta de presupuesto para 2024, el Departamento de Defensa solicitó 1.400 millones de dólares para el JADC2 con el fin de «transformar la capacidad de combate proporcionando ventajas de información a velocidad de crucero en todos los dominios y socios». ¡Oh-oh! Y luego, solicitó otros 1.800 millones de dólares para otros tipos de investigación sobre IA relacionada con el ejército.
Los oficiales del Pentágono reconocen que pasará algún tiempo antes de que los generales robots comanden un gran número de tropas estadounidenses (y armas autónomas) en la batalla, pero ya han puesto en marcha varios proyectos destinados a probar y perfeccionar precisamente estas conexiones. Un ejemplo es el Proyecto Convergencia del Ejército, que consiste en una serie de ejercicios de campo diseñados para validar los sistemas ABMS y JADC2. En una prueba realizada en agosto de 2020 en el Yuma Proving Ground de Arizona, por ejemplo, el Ejército utilizó una serie de sensores aéreos y terrestres para rastrear fuerzas enemigas simuladas y, a continuación, procesar esos datos mediante ordenadores con IA en la Base Conjunta Lewis McChord del estado de Washington. Estos ordenadores, a su vez, emitían instrucciones de fuego a la artillería terrestre en Yuma. «Se supone que toda esta secuencia se llevó a cabo en 20 segundos», informó posteriormente el Servicio de Investigación del Congreso.
Se sabe menos sobre el equivalente de IA de la Armada, el «Proyecto Overmatch», ya que muchos aspectos de su programación se han mantenido en secreto. Según el almirante Michael Gilday, jefe de operaciones navales, Overmatch pretende «hacer posible una Armada que pulule por el mar, lanzando efectos letales y no letales sincronizados desde cerca y desde lejos, en todos los ejes y en todos los dominios». Poco más se ha revelado sobre el proyecto.
«Guerras relámpago” y extinción humana
A pesar de todo el secretismo que rodea a estos proyectos, se puede pensar en ABMS, JADC2, Convergence y Overmatch como bloques de construcción para una futura megared de superordenadores similar a Skynet, diseñada para comandar todas las fuerzas estadounidenses, incluidas las nucleares, en combate armado. Cuanto más avance el Pentágono en esa dirección, más cerca estaremos de un momento en el que la IA posea poder de vida o muerte sobre todos los soldados estadounidenses junto con las fuerzas contrarias y cualquier civil atrapado en el fuego cruzado.
Esta perspectiva debería ser motivo suficiente de preocupación. Para empezar, consideremos el riesgo de errores y fallos de cálculo de los algoritmos que constituyen el núcleo de estos sistemas. Como nos han advertido los mejores informáticos, esos algoritmos son capaces de cometer errores notablemente inexplicables y, por utilizar el término de IA del momento, «alucinaciones», es decir, resultados aparentemente razonables que son totalmente ilusorios. Dadas las circunstancias, no es difícil imaginar que esos ordenadores «alucinen» con un ataque enemigo inminente y lancen una guerra que, de otro modo, podría haberse evitado.
Y ese no es el peor de los peligros a tener en cuenta. Después de todo, existe la probabilidad obvia de que los adversarios de Estados Unidos también equipen sus fuerzas con generales robots. En otras palabras, es probable que las guerras del futuro se libren por un conjunto de sistemas de IA contra otro, ambos vinculados al armamento nuclear, con resultados totalmente impredecibles, pero potencialmente catastróficos.
No se sabe mucho (al menos de fuentes públicas) sobre los esfuerzos rusos y chinos para automatizar sus sistemas militares de mando y control, pero se cree que ambos países están desarrollando redes comparables al JADC2 del Pentágono. Ya en 2014, de hecho, Rusia inauguró un Centro de Control de Defensa Nacional (NDCC, por sus siglas en inglés) en Moscú, un puesto de mando centralizado para evaluar las amenazas globales e iniciar cualquier acción militar que se considere necesaria, ya sea de naturaleza no nuclear o nuclear. Al igual que el JADC2, el NDCC está diseñado para recopilar información sobre los movimientos del enemigo procedente de múltiples fuentes y proporcionar a los oficiales superiores orientación sobre las posibles respuestas.
Se dice que China está llevando a cabo una empresa aún más elaborada, aunque similar, bajo la rúbrica de «Guerra de precisión multidominio» (MDPW, por sus siglas en inglés). Según el informe del Pentágono de 2022 sobre los avances militares chinos, su ejército, el Ejército Popular de Liberación, está siendo entrenado y equipado para utilizar sensores y redes informáticas con IA para «identificar rápidamente vulnerabilidades clave en el sistema operativo estadounidense y luego combinar fuerzas conjuntas en todos los dominios para lanzar ataques de precisión contra esas vulnerabilidades».
Imagínense, pues, una futura guerra entre Estados Unidos y Rusia o China (o ambas) en la que el JADC2 comande todas las fuerzas de Estados Unidos, mientras que el NDCC de Rusia y el MDPW de China comanden las fuerzas de esos países. Considérese también que es probable que los tres sistemas experimenten errores y alucinaciones. ¿Qué seguridad tendrán los humanos cuando los generales robots decidan que es hora de «ganar» la guerra lanzando bombas nucleares a sus enemigos?
Si esto les parece un escenario descabellado, piénsenlo de nuevo, al menos según la dirección de la Comisión de Seguridad Nacional sobre Inteligencia Artificial, una empresa creada por mandato del Congreso y presidida por Eric Schmidt, exdirector de Google, y Robert Work, exvicesecretario de Defensa. «Aunque la Comisión cree que los sistemas de armamento autónomos y basados en inteligencia artificial adecuadamente diseñados, probados y utilizados aportarán importantes beneficios militares e incluso humanitarios, el uso mundial incontrolado de estos sistemas podría provocar una escalada involuntaria de los conflictos y la inestabilidad de las crisis», afirmaba en su informe final. Estos peligros podrían surgir, se sostenía, «debido a las complejidades desafiantes y no probadas de la interacción entre los sistemas de armas autónomos y con IA en el campo de batalla», es decir, cuando la IA lucha contra la IA.
Aunque pueda parecer un escenario extremo, es perfectamente posible que sistemas de IA opuestos desencadenen una catastrófica «guerra relámpago», el equivalente militar de un «desplome de la bolsa» en Wall Street, cuando enormes transacciones realizadas por algoritmos de negociación supersofisticados desatan el pánico antes de que los operadores humanos puedan restablecer el orden. En el tristemente célebre «desplome» del 6 de mayo de 2010, las operaciones impulsadas por ordenador precipitaron una caída del 10% del valor del mercado bursátil. Según Paul Scharre, del Center for a New American Security, que estudió por primera vez el fenómeno, «el equivalente militar de tales crisis» en Wall Street surgiría cuando los sistemas de mando automatizados de las fuerzas opuestas «se vieran atrapados en una cascada de enfrentamientos crecientes». En tal situación, señaló, «las armas autónomas podrían provocar muertes accidentales y destrucción a escalas catastróficas en un instante».
En la actualidad, prácticamente no existen medidas para prevenir una futura catástrofe de este tipo, ni siquiera conversaciones entre las principales potencias para diseñar tales medidas. Sin embargo, como señaló la Comisión de Seguridad Nacional sobre Inteligencia Artificial, tales medidas de control de crisis son urgentemente necesarias para integrar «cables trampa de escalada automatizada» en tales sistemas «que impedirían la escalada automatizada del conflicto». De lo contrario, una versión catastrófica de la Tercera Guerra Mundial parece demasiado posible. Dada la peligrosa inmadurez de esta tecnología y la reticencia de Pekín, Moscú y Washington a imponer restricciones a la militarización de la IA, el día en que las máquinas decidan aniquilarnos podría llegar mucho antes de lo que imaginamos, y la extinción de la humanidad podría ser el daño colateral de esa futura guerra.
Ilustración de portada: Shutterstock.