lunes, marzo 09, 2026

 

Los errores y los límites de la razón

 

Esta imagen para mi sinteza como poder comenzar  la toma de decisiones en distintas situaciones comenzando con: 

1.-Las evidencias internas que son las que se forman después del aprendizaje y la experiencia. Incluyen intuiciones, patrones que reconocemos, memoria implícita, habilidades profesionales. Un profesional experimentado, por ejemplo, puede “sentir” que algo no está bien antes de tener todos los datos.

Evidencias externas: provienen de observaciones sistemáticas, estudios de casos, ensayos, revisiones sistemáticas y metaanálisis. Son más verificables y replicables.

El punto clave es que ninguna de las dos funciona perfectamente sola. Las internas pueden estar contaminadas por sesgos. Las externas pueden ser frías, incompletas o mal interpretadas. La práctica más sólida suele ser integrar ambas: experiencia + evidencia empírica.

2.-Los errores con sus diversos tipos básicos, sistemáticos , por el azar y los de esa la zona gris intermedia de mecanismos mentales ,la de  las heurísticas que no siempre siguen las reglas de la lógica formal.

El error sistemático es, en principio, una forma de error que podemos evitar. A diferencia del error producido por el azar —al cual solo podemos estimar o cuantificar— el error sistemático suele tener su origen en nuestras propias prácticas.

Puede aparecer, de manera sencilla, por tres razones: 1.-porque observamos mal. 2.-porque aquello que observamos cambia durante la observación.3.- porque los instrumentos con los que medimos no están en condiciones adecuadas. Esta cuestión nos conduce inevitablemente a otra que suele generar confusión:

La fiabilidad de nuestras mediciones. En este terreno aparecen dos conceptos estrechamente relacionados pero distintos: exactitud y precisión.

La exactitud se refiere a la proximidad entre una medición y el valor real de aquello que se pretende medir. La precisión, en cambio, describe el grado de dispersión de las mediciones: cuán consistentes son entre sí.  Un instrumento puede ser muy preciso —repetir siempre el mismo resultado— y aun así estar sistemáticamente equivocado. Comprender esta diferencia es uno de los primeros pasos para reconocer nuestros propios límites al conocer. Pero los errores del conocimiento no terminan en los instrumentos.

Desde hace décadas, muchos pensadores parecen tener algo que reprocharle a René Descartes. Y, sin embargo, cuando uno se acerca a su obra Discurso del método, es difícil no sentir la seducción de su propuesta: la idea de que, siguiendo un método riguroso, la razón puede conducirnos hacia un conocimiento seguro.

El famoso cogito ergo sum —“pienso, luego existo”— resume esa confianza en la capacidad del pensamiento. Pero el dualismo cartesiano, esa separación entre mente y cuerpo, ha sido puesto en cuestión repetidas veces. Como metáfora puede resultar útil, pero también puede inducirnos a olvidar algo fundamental: el ser humano no es una suma de partes independientes, sino una unidad compleja.

El pensamiento humano, como recordaba Edgar Morin en Introducción al pensamiento complejo, se enfrenta a dos ilusiones persistentes. La primera consiste en creer que la complejidad elimina la simplicidad. La segunda, en confundir complejidad con completud.

Morin lo formula de manera provocadora: “La totalidad es la no verdad.” El conocimiento humano nunca es total ni definitivo. Siempre queda algo fuera del mapa.

Entre el error puramente azaroso y el error estrictamente sistemático existe además una zona gris: el territorio de nuestras decisiones bajo incertidumbre. Allí intervienen mecanismos mentales que no siempre siguen las reglas de la lógica formal, que por otro lado no es la usamos cotidianamente.

Este territorio fue explorado con notable precisión por Daniel Kahneman y Amos Tversky. Sus investigaciones mostraron que, frente a la incertidumbre —una condición frecuente de la vida real— los seres humanos utilizamos atajos mentales.

Estos atajos se conocen como heurísticas. Las heurísticas permiten tomar decisiones rápidas cuando la información es incompleta. Son útiles, a veces indispensables. Pero tienen una característica particular: pueden conducirnos a errores sistemáticos y predecibles.

Por ejemplo, la heurística de representatividad nos lleva a juzgar la probabilidad de un evento según cuánto se parece a un caso típico que recordamos. La heurística de disponibilidad nos hace estimar la frecuencia de algo según la facilidad con la que podemos traer ejemplos a la memoria. Y la heurística de anclaje nos empuja a partir de un valor inicial —muchas veces arbitrario— y ajustar nuestras estimaciones en torno a él.

Estos mecanismos no son simples fallas accidentales del pensamiento. Son parte de su funcionamiento cotidiano y además no son las únicas heurísticas, Roff Dobelli cita 52 como mínimo.

En su obra Pensar rápido Pensar despacio D. Kahneman propuso una manera simple de entenderlo: nuestra mente opera mediante dos sistemas de pensamiento.

El sistema 1 es rápido, automático, asociativo y emocional. Funciona sin esfuerzo consciente y produce intuiciones inmediatas.

El sistema 2, en cambio, es lento, deliberado y analítico. Requiere atención, esfuerzo y control consciente.

El primero es el que guía la mayor parte de nuestras decisiones cotidianas. El segundo puede supervisarlo y corregirlo, pero solo cuando estamos dispuestos a hacer el esfuerzo necesario.

Y aquí aparece una verdad algo incómoda: pensar con rigor exige energía mental, y no siempre estamos dispuestos a invertirla.

Como si todo esto fuera poco, tampoco nuestros sentidos son completamente fiables. Las ¨ilusiones perceptivas¨ revelan hasta qué punto nuestra experiencia del mundo es una construcción del cerebro. Un ejemplo célebre es la ilusión de las mesas de Roger Shepard: dos figuras geométricamente idénticas que, sin embargo, percibimos como diferentes.

El neurocientífico Michael Gazzaniga explica este fenómeno señalando que el cerebro no se limita a registrar información sensorial. Constantemente interpreta, corrige e infiere aquello que percibimos. Lo más desconcertante es que, incluso cuando sabemos que se trata de una ilusión, no podemos dejar de verla. El conocimiento racional no modifica la percepción automática. Nuestro sistema consciente puede comprender el engaño, pero el mecanismo perceptivo sigue funcionando como siempre.

¨Si nuestros instrumentos pueden fallar, si nuestros sentidos pueden engañarnos y si nuestro pensamiento utiliza atajos que producen errores previsibles, entonces el conocimiento humano parece estar rodeado de trampas. Pero tal vez esa sea precisamente su condición¨

EPILOGO

Reconocer nuestros errores no debilita el conocimiento; lo vuelve más honesto. La búsqueda de la verdad no consiste en eliminar completamente el error —una tarea imposible— sino en identificarlo, comprenderlo y corregirlo siempre que sea posible. Y aunque nunca logremos erradicarlo del todo, al menos podremos evitar una de las formas más persistentes de equivocación: la de creer que estamos libres de error.

 

No hay comentarios: