domingo, febrero 08, 2026

  

Todo lo que te diga tres veces es verdad

Sobre la irracionalidad cotidiana y los sesgos cognitivos en la toma de decisiones





La frase provocadora atribuida a Lewis Carroll —«todo lo que te diga tres veces es verdad»— funciona como un espejo incómodo de nuestra manera de pensar. Esta reflexión no surge solo del interés teórico, sino también de conversaciones concretas: como aquella llamada de Oscar, preocupado por los sesgos que cometemos a diario al opinar y decidir, consciente de la carga subjetiva que inevitablemente llevamos a cada juicio.

No porque la repetición convierta automáticamente lo falso en verdadero, sino porque revela una debilidad profunda de la mente humana: la tendencia a confundir familiaridad con verdad. En un mundo saturado de información, opiniones y estímulos constantes, comprender cómo pensamos y por qué erramos se vuelve no solo un ejercicio intelectual, sino una necesidad práctica.

Durante décadas, la tradición filosófica sostuvo que el ser humano es, ante todo, un agente racional. Para Stuart Sutherland, la irracionalidad humana no es un accidente ocasional.  La imagen clásica del ser humano como un agente racional —que evalúa evidencia, sopesa alternativas y elige lógicamente— es más un ideal normativo que una descripción realista. En la práctica, pensar es un proceso híbrido, atravesado por emociones, hábitos, intuiciones rápidas y atajos mentales que rara vez pasan por un control consciente riguroso.

Lo crucial es que los errores cognitivos no son aleatorios. No fallamos “de cualquier manera”, sino siguiendo patrones estables y repetibles: sesgos de confirmación, ilusiones de control, razonamientos motivados, falsas correlaciones, heurísticas que simplifican el mundo a costa de distorsionarlo. Estos mecanismos existen porque, en muchos contextos cotidianos, ser rápido y suficientemente bueno fue evolutivamente más útil que ser lento y exacto. El problema surge cuando esos mismos atajos se aplican a situaciones complejas, abstractas o moralmente cargadas.

Aquí aparece el punto más inquietante de Sutherland: la peligrosidad de estos errores reside en su invisibilidad. Como solemos experimentar nuestras conclusiones como “obvias” o “naturales”, no las vivimos como el resultado de un razonamiento defectuoso, sino como simples descripciones de la realidad. El pensamiento se siente correcto incluso cuando está mal. Por eso los sesgos no se corrigen solos: refuerzan la ilusión de comprensión, no la duda.

Además, la mezcla de razón y emoción no implica que la emoción sea un “ruido” externo. Muy al contrario: la emoción guía qué información atendemos, qué descartamos y qué consideramos relevante. La razón, muchas veces, entra después, no para descubrir la verdad, sino para justificar una conclusión ya adoptada intuitivamente. En este sentido, pensar no es tanto buscar la verdad como construir coherencia interna.

Sutherland no sostiene que el pensamiento racional sea imposible, pero sí que es frágil, costoso y poco espontáneo. Requiere entrenamiento, instituciones que lo sostengan (como la ciencia o ciertos procedimientos legales) y, sobre todo, una disposición a aceptar que nuestra mente nos engaña con facilidad. Sin ese reconocimiento, la irracionalidad opera en piloto automático.

 

Daniel Kahneman y Amos Tversky demostraron que gran parte de nuestros juicios se apoyan en heurísticas, atajos mentales que simplifican la realidad para permitirnos decidir con rapidez. Estas heurísticas no son, en sí mismas, negativas; de hecho, son indispensables para la supervivencia en contextos de incertidumbre.

El problema surge cuando estos atajos sustituyen al análisis, generando sesgos cognitivos que distorsionan la percepción de probabilidades, riesgos y evidencias. Como la mayoría de nuestros errores ocurren en el Sistema 1 (rápido, intuitivo),  la única defensa es forzar el Sistema 2 (lento, analítico) ante decisiones críticas.

Diagrama

El contenido generado por IA puede ser incorrecto.

Uno de los aportes centrales de esta línea de investigación fue mostrar que no evaluamos los hechos de manera objetiva, sino relativa. La teoría de las perspectivas explica que reaccionamos con mayor intensidad ante las pérdidas que ante las ganancias equivalentes. Me ocurrió cuando me regalaron algo que al caerse casi en minutos se rompió,

Diagrama

El contenido generado por IA puede ser incorrecto.

No juzgamos los resultados por su valor absoluto, sino en relación con un punto de referencia. Esta aversión a la pérdida influye en decisiones económicas, políticas y personales, empujándonos a conservar lo que tenemos incluso cuando el cambio sería racionalmente conveniente.

La revisión de los juicios fue el primer paso: comprender cómo asignamos probabilidades, cómo inferimos causas y cómo construimos explicaciones. Pero el análisis no podía detenerse ahí. Revisar las decisiones implicó estudiar qué hacemos cuando hay riesgo real, cuando las consecuencias importan y cuando la información es incompleta. En estos escenarios, los sesgos no solo afectan lo que pensamos, sino lo que hacemos.

Un sesgo cognitivo puede definirse como una desviación sistemática en el procesamiento de la información que conduce a interpretaciones ilógicas o inexactas. No se trata de simple ignorancia, sino de un funcionamiento normal de la mente. Incluso cuando disponemos de datos adecuados, podemos ignorarlos, reinterpretarlos o seleccionarlos de manera conveniente para sostener creencias previas. De este modo, la subjetividad se disfraza de objetividad.

Reconocer esta fragilidad cognitiva no implica caer en el relativismo ni renunciar a la razón. Por el contrario, es una invitación a la humildad intelectual. Saber que estamos sesgados nos permite diseñar mejores métodos, contrastar opiniones, buscar evidencia contraria y desacelerar decisiones importantes. La racionalidad no desaparece; se vuelve un esfuerzo consciente, no un supuesto automático.

En última instancia, el valor de estas reflexiones no radica en demostrar que el ser humano se equivoca, sino en mostrar que puede aprender a equivocarse mejor.

Diagrama

El contenido generado por IA puede ser incorrecto.

Epílogo

La inquietud que plantea Oscar  no es menor: ¿Qué ocurre cuando creemos pensar por cuenta propia, pero en realidad repetimos ideas, intuiciones y narrativas que nunca examinamos? Tal vez el verdadero riesgo no sea equivocarse, sino no saber que se está equivocado.

Vivimos convencidos de que decidimos, cuando muchas veces solo reaccionamos; de que razonamos, cuando en realidad justificamos. La repetición, la autoridad percibida y la comodidad cognitiva hacen el resto. Así, la mentira reiterada puede parecer verdad, y la verdad incómoda puede ser descartada sin defensa. Aceptar nuestra irracionalidad no es una derrota intelectual, sino un acto de lucidez. Nos obliga a frenar, a desconfiar de la certeza inmediata y a asumir que pensar bien exige esfuerzo, incomodidad y, sobre todo, humildad. Quizá no podamos escapar de los sesgos, pero sí podemos aprender a vigilarlos.

Porque al final, la pregunta no es si somos racionales o no, sino si estamos dispuestos a revisar aquello que creemos cierto antes de repetirlo por tercera vez. Pensar críticamente no es eliminar el error, sino hacerlo visible. Tal vez la verdad no nazca de la repetición, pero sí de la sospecha constante frente a lo que creemos evidente. En ese espacio incómodo entre certeza y duda, la razón encuentra su verdadera oportunidad.

No hay comentarios: