Cuando la Racionalidad
lleva a la Guerra
Miguel me mando un comentario acerca de que las grandes guerras
muchas veces no empiezan por decisión racional ,sino por errores de cálculo
,malas señales ,accidentes, presión interna … y me llevo a una visión desde la
teoría de los juegos a la Trampa del Equilibrio de Nash: La "Estupidez
Racional¨.
Es oportuno recordar
representación muy buena de
Rusell Crowe como John Nash en la película ¨Mente Brillante¨ con
relación a la Teoría de los Juegos.
Tendemos a pensar que la guerra es fruto de la locura, pero la Teoría de Juegos nos dice lo contrario: la
guerra es a menudo el resultado de una lógica impecable. En el Dilema
del Prisionero aplicado al Estrecho de Ormuz o a cualquier conflicto
geopolítico, sucede lo siguiente: Cooperar (Paz): Es el Óptimo de Pareto. Todos estarían mejor, se ahorrarían vidas y
recursos. Defeccionar (Guerra): Es el Equilibrio de Nash. Si yo coopero y tú me
traicionas, yo pierdo todo. Por lo tanto, la opción "racional" para
minimizar la pérdida máxima es atacar o rearmarme.
Como ambos piensan igual, terminan en un equilibrio donde ambos están
peor que si hubieran cooperado, pero ninguno tiene incentivos individuales para
cambiar de estrategia sin que el otro lo haga primero. Es la parálisis matematizada.
Para romper el Equilibrio de Nash y alcanzar
el Óptimo de Pareto, se necesita la Teoría de Juegos Evolutiva ,la cual sugiere
que la cooperación puede surgir incluso en entornos hostiles mediante la
estrategia de "Tit-for-Tat". La historia nos enseña que la
única forma de escapar de la trampa del prisionero es la iteración:
jugar muchas veces para construir reputación y confianza. Sin embargo, en la era nuclear y de la IA, a
veces solo se tiene una oportunidad. Por
eso en esta era me parece imposible.
J.
Nash nos deja una lección humillante para nuestra especie: ser individualmente
racionales puede ser colectivamente suicida. Para alcanzar el bienestar común,
necesitamos algo que las matemáticas no pueden garantizar por sí solas: la
voluntad ética de confiar.
Ejemplos por recordar
El juego de
la disuasión nuclear durante la Guerra Fría funcionaba como otro juego famoso: Mutually
Assured Destruction (MAD) Si atacas → ambos mueren Si no
atacas → ambos sobreviven Ese sistema también es un equilibrio de Nash,
pero basado en el miedo.
Como citaba
Miguel muchas guerras ocurren por: información incompleta, errores de
cálculo…Esto fue estudiado por James Fearon. Su conclusión famosa: Si
ambos actores fueran perfectamente racionales y tuvieran información perfecta,
muchas guerras no ocurrirían. Es decir, una visión distinta: la guerra
muchas veces surge de fallas en la racionalidad, no de su exceso.
1|.-Crisis
de los misiles de Cuba (1962) Actores: John F. Kennedy Nikita Khrushchev Cuba
Cuando la
Unión Soviética instaló misiles nucleares en Cuba, Estados Unidos descubrió las
bases. El juego estratégico era más o menos así:
|
URSS |
EE. UU. |
Resultado |
|
Retira misiles |
No
invade |
Paz |
|
No retira |
EE. UU. ataca |
Guerra nuclear posible |
|
Ambos escalan |
guerra global |
Cada lado
pensaba:
- Si cedo primero →
pierdo poder
- Si el otro cede → gano
Eso es
exactamente un equilibrio de Nash peligroso. La crisis duró 13 días
y el mundo estuvo muy cerca de una guerra nuclear. La solución fue negociación
secreta:
- URSS retira misiles de Cuba
- EE. UU. retira misiles de Turquía (en
secreto)
Lo interesante: la solución fue
cooperación oculta, no pura lógica estratégica pública.
2.-El
submarino soviético que casi lanzó un torpedo nuclear (1962)
- EE. UU. lanzó cargas de profundidad de
advertencia
- la tripulación creyó que la guerra
nuclear ya había comenzado
El comandante quería lanzar un torpedo nuclear.
Pero el lanzamiento requería aprobación de tres oficiales. Uno de ellos
fue: Vasili Arkhipov , se negó a autorizarlo.
Resultado: el torpedo nuclear no fue disparado probablemente evitó una guerra
mundial. Aquí vemos algo importante: la racionalidad militar del comandante era
lanzar el arma. Pero una sola persona decidió no seguir la lógica de escalada.
3.-El
falso ataque nuclear detectado por satélites (1983)
En plena Guerra Fría, el sistema soviético detectó:
5 misiles nucleares lanzados desde Estados Unidos.
El oficial
de guardia era: Stanislav Petrov Según el protocolo debía: informar
inmediatamente activar la respuesta nuclear soviética Pero Petrov pensó algo
extraño: “Si Estados Unidos atacara, no enviaría solo cinco misiles.” Decidió ignorar
la alarma. Luego se descubrió que el sistema había confundido reflejos
del sol en las nubes con misiles. Su decisión probablemente evitó una
guerra nuclear accidental.
Qué
tienen en común estos tres casos
En los tres casos:
- los sistemas estaban diseñados racionalmente
- las doctrinas eran estratégicamente
coherentes
Pero el sistema llevaba hacia escalada
automática. Y la catástrofe se evitó por: intuición humana, desobediencia o
negociación.
Muchos
politólogos hoy creen que la clave no es la racionalidad sino la confianza.
El problema central es: incertidumbre sobre las intenciones del otro. En
teoría de juegos se llama: dilema de seguridad Si tu vecino compra
armas: puede ser para defenderse o para atacarte, Pero tú no puedes saberlo Entonces
compras más armas. El politólogo Thomas Schelling decía: “La guerra no ocurre porque la gente sea
irracional, sino porque actores racionales temen lo que otros racionales
podrían hacer.”
El problema
del mundo no es la racionalidad. Es esta combinación: racionalidad +
incertidumbre + miedo Cuando juntas esas tres cosas: los sistemas se
vuelven inestables pequeñas señales se interpretan como amenazas ,todos toman
decisiones defensivas que parecen agresivas.
La conclusión inquietante
La
estabilidad global depende cada vez más de algo muy frágil: qué humanos
mantengan el control final. Muchos expertos proponen una regla simple: nunca
permitir que un sistema automático decida un lanzamiento nuclear. la
inteligencia artificial podría volver más inestables estos juegos estratégicos.