jueves, marzo 12, 2026

 

Cuando la Racionalidad lleva a la Guerra

Miguel me mando un comentario acerca de que las grandes guerras muchas veces no empiezan por decisión racional ,sino por errores de cálculo ,malas señales ,accidentes, presión interna … y me llevo a una visión desde la teoría de los juegos a la Trampa del Equilibrio de Nash: La "Estupidez Racional¨.

 

Es oportuno recordar  representación muy buena  de Rusell Crowe como  John  Nash en la película ¨Mente Brillante¨ con relación a la Teoría de los Juegos.

Tendemos a pensar que la guerra es fruto de la locura, pero  la Teoría de Juegos nos dice lo contrario: la guerra es a menudo el resultado de una lógica impecable. En el Dilema del Prisionero aplicado al Estrecho de Ormuz o a cualquier conflicto geopolítico, sucede lo siguiente: Cooperar (Paz): Es el Óptimo de Pareto.  Todos estarían mejor, se ahorrarían vidas y recursos. Defeccionar (Guerra): Es el Equilibrio de Nash. Si yo coopero y tú me traicionas, yo pierdo todo. Por lo tanto, la opción "racional" para minimizar la pérdida máxima es atacar o rearmarme.

Como ambos piensan igual, terminan en un equilibrio donde ambos están peor que si hubieran cooperado, pero ninguno tiene incentivos individuales para cambiar de estrategia sin que el otro lo haga primero. Es la parálisis  matematizada.

Para romper el Equilibrio de Nash y alcanzar el Óptimo de Pareto, se necesita la Teoría de Juegos Evolutiva ,la cual sugiere que la cooperación puede surgir incluso en entornos hostiles mediante la estrategia de "Tit-for-Tat".  La historia nos enseña que la única forma de escapar de la trampa del prisionero es la iteración: jugar muchas veces para construir reputación y confianza.  Sin embargo, en la era nuclear y de la IA, a veces solo se tiene una oportunidad.  Por eso en esta era me parece imposible.

    J. Nash nos deja una lección humillante para nuestra especie: ser individualmente racionales puede ser colectivamente suicida. Para alcanzar el bienestar común, necesitamos algo que las matemáticas no pueden garantizar por sí solas: la voluntad ética de confiar.

Ejemplos por recordar

El juego de la disuasión nuclear durante la Guerra Fría funcionaba como otro juego famoso: Mutually Assured Destruction (MAD) Si atacas → ambos mueren Si no atacas → ambos sobreviven Ese sistema también es un equilibrio de Nash, pero basado en el miedo.

Como citaba Miguel muchas guerras ocurren por: información incompleta, errores de cálculo…Esto fue estudiado por James Fearon. Su conclusión famosa: Si ambos actores fueran perfectamente racionales y tuvieran información perfecta, muchas guerras no ocurrirían. Es decir, una visión distinta: la guerra muchas veces surge de fallas en la racionalidad, no de su exceso.

1|.-Crisis de los misiles de Cuba (1962) Actores: John F. Kennedy Nikita Khrushchev Cuba

Cuando la Unión Soviética instaló misiles nucleares en Cuba, Estados Unidos descubrió las bases. El juego estratégico era más o menos así:

URSS

EE. UU.

          Resultado

Retira misiles

     No invade

          Paz

No retira

      EE. UU. ataca

          Guerra nuclear posible

Ambos escalan

guerra global

Cada lado pensaba:

  • Si cedo primero → pierdo poder
  • Si el otro cede → gano

Eso es exactamente un equilibrio de Nash peligroso. La crisis duró 13 días y el mundo estuvo muy cerca de una guerra nuclear. La solución fue negociación secreta:

  • URSS retira misiles de Cuba
  • EE. UU. retira misiles de Turquía (en secreto)

Lo interesante: la solución fue cooperación oculta, no pura lógica estratégica pública.

 

2.-El submarino soviético que casi lanzó un torpedo nuclear (1962)

  • EE. UU. lanzó cargas de profundidad de advertencia
  • la tripulación creyó que la guerra nuclear ya había comenzado

El comandante quería lanzar un torpedo nuclear. Pero el lanzamiento requería aprobación de tres oficiales. Uno de ellos fue: Vasili Arkhipov , se negó a autorizarlo.

Resultado: el torpedo nuclear no fue disparado probablemente evitó una guerra mundial. Aquí vemos algo importante: la racionalidad militar del comandante era lanzar el arma. Pero una sola persona decidió no seguir la lógica de escalada.

 

3.-El falso ataque nuclear detectado por satélites (1983)

En plena Guerra Fría, el sistema soviético detectó: 5 misiles nucleares lanzados desde Estados Unidos.

El oficial de guardia era: Stanislav Petrov Según el protocolo debía: informar inmediatamente activar la respuesta nuclear soviética Pero Petrov pensó algo extraño: “Si Estados Unidos atacara, no enviaría solo cinco misiles.” Decidió ignorar la alarma. Luego se descubrió que el sistema había confundido reflejos del sol en las nubes con misiles. Su decisión probablemente evitó una guerra nuclear accidental.

 

Qué tienen en común estos tres casos

En los tres casos:

  • los sistemas estaban diseñados racionalmente
  • las doctrinas eran estratégicamente coherentes

Pero el sistema llevaba hacia escalada automática. Y la catástrofe se evitó por: intuición humana, desobediencia o negociación.

Muchos politólogos hoy creen que la clave no es la racionalidad sino la confianza. El problema central es: incertidumbre sobre las intenciones del otro. En teoría de juegos se llama: dilema de seguridad Si tu vecino compra armas: puede ser para defenderse o para atacarte, Pero tú no puedes saberlo Entonces compras más armas. El politólogo Thomas Schelling decía: “La guerra no ocurre porque la gente sea irracional, sino porque actores racionales temen lo que otros racionales podrían hacer.”

El problema del mundo no es la racionalidad. Es esta combinación: racionalidad + incertidumbre + miedo Cuando juntas esas tres cosas: los sistemas se vuelven inestables pequeñas señales se interpretan como amenazas ,todos toman decisiones defensivas que parecen agresivas.

La conclusión inquietante

La estabilidad global depende cada vez más de algo muy frágil: qué humanos mantengan el control final. Muchos expertos proponen una regla simple: nunca permitir que un sistema automático decida un lanzamiento nuclear. la inteligencia artificial podría volver más inestables estos juegos estratégicos.

 

No hay comentarios: