Seguridad

¿Podría la inteligencia artificial provocar una guerra nuclear?

armas-nucleares

La inteligencia artificial podría estabilizar al máximo el delicado equilibrio de fuerzas en la contienda nuclear, pero también caer en errores y trampas que precipitarían la destrucción del planeta. O, incluso, hacer que nosotros mismos provoquemos ese final.

Desde 1945, el mundo vive bajo la amenaza de una guerra nuclear inminente pero que nunca llega. El período conocido como la ‘Guerra Fría’ es el vivo ejemplo de ese temor, con crisis puntuales como la de los misiles de Cuba que hacían pensar en un enfrentamiento bélico sin precedentes entre EEUU y la URSS con esta clase de armas de destrucción masiva. Pero nunca pasó nada.

La causa de que nadie introdujera los códigos nucleares, desatando el caos global, radica principalmente en el papel jugado por los líderes -no sólo políticos, sino también militares- a un lado y otro del Atlántico. Solo gracias a que todos ellos mantuvieron la calma ante la tensión inherente al momento y fueron capaces de racionalizar las decisiones más cruciales hemos podido escapar a las garras de las temidas bombas nucleares.

La historia de Stanislav Petrov

Corría la medianoche del 26 de septiembre de 1983. En un búnker secreto a las afueras de Moscú se encontraba el teniente coronel Stanislav Petrov, encargado esa noche de monitorizar los datos satelitales de la Unión Soviética en busca de cualquier señal que indicara un lanzamiento de misiles norteamericanos contra territorio comunista.

Normalmente se trataba de una tarea tediosa, aburrida: nunca pasaba nada. Pero ese 26 de septiembre, de repente, una sirena resonó en las paredes del búnker y una señal en rojo apareció en su monitor: “Lanzamiento”. Al poco, otro. Y otro. Así hasta cinco avisos de misiles en dirección a la URSS que hicieron temblar al bueno de Petrov.

La ciberseguridad de las armas nucleares (analógicas) en la era digital

Pero el militar ruso sabía que el sistema de control instalado por las autoridades no era todo lo fiable que le habían prometido. Puesto en marcha unos pocos meses antes, su entrada en operación fue apresurada ante el temor de que la URSS se quedara atrás en la carrera armamentística con Estados Unidos. Y Petrov sabía que era un sistema capaz de dar errores.

Por eso, en lugar de desatar la respuesta nuclear soviética, Petrov decidió fiarse de su instinto (¿por qué iba EEUU a iniciar una guerra nuclear de repente y con solo cinco misiles?) y levantar dos teléfonos. Con uno, avisó a su oficial de guardia de que se trataba de una ‘falsa alarma’. Con el otro, hablaba con sus técnicos de la sala de control que le corroboraban que no se veía absolutamente nada similar a un lanzamiento nuclear ni en los radares ni en los telescopios.

Con una calma fría, difícil de sostener en un momento en que tienes el destino de la Humanidad en tus manos, Stanislav Petrov siguió asegurando a sus mandos que se trataba de una falsa alarma. Por suerte, sus jefes militares le creyeron y nadie hizo nada de lo que arrepentirse.

¿Qué hubiera pasado con inteligencia artificial?

Pensar que las máquinas, ya sea por error o por malicia, pueden equivocarse no es ningún asunto baladí: una actualización errónea, un problema de mantenimiento o un ciberataque -de un Estado enemigo o de grupos terroristas- pueden generar alertas de ataque nuclear falsas.

El verdadero temor llega cuando pensamos en un modelo de respuesta comandado por la inteligencia artificial y la automatización, en lugar de la decisión humana. Los sistemas de IA son capaces de aprender y pensar por si solos, pero también están programados para responder de forma inmediata a un determinado patrón o aviso al instante.

En un escenario de alerta nuclear, como el anteriormente expuesto, un sistema de IA no habría dudado de la fiabilidad de sus datos y hubiera activado automáticamente la respuesta nuclear soviética. Y ello, a su vez, hubiera provocado -ahora sí- el lanzamiento de los misiles nucleares norteamericanos. Bienvenidos al colapso nuclear, bienvenidos a la destrucción masiva.

El fin de la ‘destrucción mutua garantizada’

Pero hay más lecturas, igualmente preocupantes, sobre el papel que la inteligencia artificial -junto al desarrollo de otras tecnologías, como drones o el Internet de las Cosas- puede jugar en esta clase de circunstancias.

La clave radica en el principio de la ‘mutua destrucción garantizada’, una premisa vigente durante toda la Guerra Fría y que consistía en una verdad tan sencilla como absoluta: si una de las potencias sufría un ataque nuclear, éste sería respondido de igual forma. El desastre para ambos bandos sería de semejante magnitud que ninguno de ellos estaría dispuesto a dar el primer paso.

Pero esta premisa se vuelve más peligrosa e incierta si uno de los lados pierde su capacidad de devolver el golpe o si simplemente cree que podría perder esa habilidad. La única solución ante esta disyuntiva sería responder creando nuevas armas para recuperar su ventaja o, por el contrario, motivar a lanzar sus armas primero para evitar la destrucción de su arsenal.

Ahí es donde podría estar el verdadero peligro de la inteligencia artificial. Los sistemas informáticos de que disponemos en la actualidad pueden ya escanear miles de fotos de vigilancia, buscando patrones que un ojo humano nunca vería. No se necesita mucha imaginación para imaginar un sistema más avanzado que se alimente de drones, datos satelitales e incluso publicaciones en redes sociales para desarrollar una imagen completa de las armas y las defensas de un adversario. Un sistema que puede estar en todas partes y ver todo puede convencer a un adversario de que es vulnerable a un primer ataque que lo desarme por completo y, de este modo, perder su contragolpe.

“Los sistemas autónomos no necesitan matar personas para socavar la estabilidad y hacer que la guerra catastrófica sea más probable”, explica Edward Geist , investigador asociado de políticas de RAND y especialista en seguridad nuclear. “Las nuevas capacidades de inteligencia artificial pueden hacer que las personas piensen que van a perder si dudan. Eso podría darles más motivos desencadenantes. En ese punto, la IA hará que la guerra sea más probable aun cuando los humanos todavía mantengan el control“.

¿Por qué Estados Unidos sigue usando disquetes en su fuerza nuclear?

Quienquiera que gane la carrera por la superioridad de la inteligencia artificial, llegó a afirmar el presidente ruso Vladimir Putin, “se convertirá en el gobernante del mundo”. En la misma línea, Elon Musk, fundador de Tesla, consideró que el hecho de que alguien logre esa superioridad de la IA sería la causa más probable de la Tercera Guerra Mundial.

¿Qué se puede hacer?

No cabe duda alguna de que mantener la paz en un momento de tales avances tecnológicos requerirá la cooperación de todas las potencias nucleares. También exigirá nuevas instituciones y acuerdos globales; nuevos entendimientos entre Estados rivales; y nuevas salvaguardias tecnológicas, diplomáticas y militares.

Pero también existe una visión más optimista al respecto. Y es que, es posible que un futuro sistema de IA pueda resultar tan confiable, tan fríamente racional, que acabe con la amenaza nuclear en su fondo absoluto. Una máquina que no comete errores, no siente presión y no tiene ningún sesgo personal podría proporcionar un nivel de estabilidad que la Era Atómica nunca ha conocido. Aunque ese futuro es, hoy por hoy, técnicamente imposible. Mientras, lo que sí podemos es utilizar la inteligencia artificial para rastrear el desarrollo nuclear y garantizar que los países respeten los acuerdos de no proliferación, por ejemplo.

Petrov, fallecido en 2017, lo tenía claro: “Somos más inteligentes que las computadoras. Nosotros las creamos”. Ahí queda su reflexión…

*Este texto es una adaptación reinterpretada de un texto elaborado por RAND Corporation (laboratorio de ideas de las Fuerzas Armadas de EEUU) para el Foro Económico Mundial, cuyo original puede leerse aquí.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, La Razón, El Mundo, ComputerWorld, CIO España, Business Insider, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo, ganador del Premio Día de Internet 2018 a mejor marca personal en RRSS y finalista en los European Digital Mindset Awards 2016, 2017 y 2018.