Los
errores y los límites de la razón
Esta imagen para mi
sinteza como poder comenzar
la toma de decisiones en distintas situaciones comenzando con:
1.-Las
evidencias internas que son las que se forman después del aprendizaje y la
experiencia. Incluyen intuiciones, patrones que reconocemos, memoria implícita,
habilidades profesionales. Un profesional experimentado, por ejemplo, puede
“sentir” que algo no está bien antes de tener todos los datos.
Evidencias
externas:
provienen de observaciones sistemáticas, estudios de casos, ensayos, revisiones
sistemáticas y metaanálisis. Son más verificables y
replicables.
El punto clave
es que ninguna
de las dos funciona perfectamente sola. Las internas pueden estar contaminadas
por sesgos. Las externas pueden ser frías, incompletas o mal interpretadas. La
práctica más sólida suele ser integrar ambas: experiencia +
evidencia empírica.
2.-Los errores con sus diversos tipos
básicos, sistemáticos , por el azar y los de esa la zona gris
intermedia de mecanismos mentales ,la de
las heurísticas que no siempre siguen las reglas de la lógica formal.
El
error sistemático es,
en principio, una forma de error que podemos evitar. A diferencia del error
producido por el azar —al cual solo podemos estimar o cuantificar— el error
sistemático suele tener su origen en nuestras propias prácticas.
Puede aparecer, de manera sencilla, por tres razones: 1.-porque observamos mal. 2.-porque aquello que observamos
cambia durante la observación.3.- porque los instrumentos con
los que medimos no están en condiciones adecuadas. Esta cuestión nos
conduce inevitablemente a otra que suele generar confusión:
La
fiabilidad de nuestras mediciones. En este terreno aparecen dos conceptos
estrechamente relacionados pero distintos: exactitud y precisión.
La
exactitud
se refiere a la proximidad entre una medición y el valor real de aquello que se
pretende medir. La precisión, en cambio, describe el grado de dispersión
de las mediciones: cuán consistentes son entre sí. Un instrumento puede ser muy preciso
—repetir siempre el mismo resultado— y aun así estar sistemáticamente equivocado.
Comprender esta diferencia es uno de los primeros pasos para reconocer
nuestros propios límites al conocer. Pero los errores del conocimiento no
terminan en los instrumentos.
Desde
hace décadas, muchos pensadores parecen tener algo que reprocharle a René
Descartes.
Y, sin embargo, cuando uno se acerca a su obra Discurso
del método,
es difícil no sentir la seducción de su propuesta: la idea de que, siguiendo un
método riguroso, la razón puede conducirnos hacia un conocimiento seguro.
El
famoso cogito
ergo sum
—“pienso, luego existo”— resume esa confianza en la capacidad del pensamiento.
Pero el dualismo cartesiano, esa separación entre mente y cuerpo, ha sido
puesto en cuestión repetidas veces. Como metáfora puede resultar útil, pero
también puede inducirnos a olvidar algo fundamental: el ser humano no es una
suma de partes independientes, sino una unidad compleja.
El
pensamiento humano, como recordaba Edgar Morin en Introducción
al pensamiento complejo, se enfrenta a dos ilusiones persistentes. La
primera consiste en creer que la complejidad elimina la simplicidad. La
segunda, en confundir complejidad con completud.
Morin
lo formula de manera provocadora: “La totalidad es la no verdad.” El
conocimiento humano nunca es total ni definitivo. Siempre queda algo fuera del
mapa.
Entre
el error puramente azaroso y el error estrictamente sistemático existe además
una zona gris:
el territorio de nuestras decisiones bajo incertidumbre. Allí intervienen
mecanismos mentales que no siempre siguen las reglas de la lógica formal, que
por otro lado no es la usamos cotidianamente.
Este
territorio fue explorado con notable precisión por Daniel
Kahneman
y Amos Tversky. Sus investigaciones
mostraron que, frente a la incertidumbre —una condición frecuente de la vida
real— los seres humanos utilizamos atajos mentales.
Estos
atajos se conocen como heurísticas. Las heurísticas permiten tomar decisiones
rápidas cuando la información es incompleta. Son útiles, a veces
indispensables. Pero tienen una característica particular: pueden conducirnos a
errores
sistemáticos y predecibles.
Por
ejemplo, la heurística
de representatividad nos lleva a juzgar la probabilidad de un evento según
cuánto se parece a un caso típico que recordamos. La heurística de
disponibilidad
nos hace estimar la frecuencia de algo según la facilidad con la que podemos
traer ejemplos a la memoria. Y la heurística de anclaje nos empuja a partir de
un valor inicial —muchas veces arbitrario— y ajustar nuestras estimaciones en
torno a él.
Estos
mecanismos no son simples fallas accidentales del pensamiento. Son parte de su
funcionamiento cotidiano y además no son las únicas heurísticas, Roff Dobelli
cita 52 como mínimo.
En
su obra Pensar rápido Pensar despacio D. Kahneman propuso una
manera simple de entenderlo: nuestra mente opera mediante dos sistemas de
pensamiento.
El
sistema
1
es rápido, automático, asociativo y emocional. Funciona sin esfuerzo consciente
y produce intuiciones inmediatas.
El
sistema
2,
en cambio, es lento, deliberado y analítico. Requiere atención, esfuerzo y
control consciente.
El
primero es el que guía la mayor parte de nuestras decisiones cotidianas. El
segundo puede supervisarlo y corregirlo, pero solo cuando estamos dispuestos a
hacer el esfuerzo necesario.
Y
aquí aparece una verdad algo incómoda: pensar con rigor exige energía mental, y
no siempre estamos dispuestos a invertirla.
Como
si todo esto fuera poco, tampoco nuestros sentidos son completamente fiables. Las ¨ilusiones perceptivas¨ revelan hasta qué punto
nuestra experiencia del mundo es una construcción del cerebro. Un ejemplo
célebre es la ilusión de las mesas de Roger Shepard: dos figuras
geométricamente idénticas que, sin embargo, percibimos como diferentes.
El
neurocientífico Michael Gazzaniga explica este fenómeno
señalando que el cerebro no se limita a registrar información sensorial.
Constantemente interpreta,
corrige e infiere
aquello que percibimos. Lo más desconcertante es que, incluso cuando sabemos
que se trata de una ilusión, no podemos dejar de verla. El conocimiento
racional no modifica la percepción automática. Nuestro sistema consciente puede
comprender el engaño, pero el mecanismo perceptivo sigue funcionando como
siempre.
¨Si nuestros instrumentos pueden fallar,
si nuestros sentidos pueden engañarnos y si nuestro pensamiento utiliza atajos
que producen errores previsibles, entonces el conocimiento humano parece estar
rodeado de trampas. Pero tal vez esa sea precisamente su condición¨
EPILOGO
Reconocer
nuestros errores no debilita el conocimiento; lo vuelve más honesto. La
búsqueda de la verdad no consiste en eliminar completamente el error —una tarea
imposible— sino en identificarlo, comprenderlo y corregirlo siempre que sea posible. Y aunque nunca
logremos erradicarlo del todo, al menos podremos evitar una de las formas más
persistentes de equivocación: la de creer que estamos libres de error.