Friday, October 09, 2009

¿Todo es probable?

Profesor Dr. Edgardo Marecos

La probabilidad, la estadística y la mecánica quántica son una mezcla tan invisible como real, solo habilitadas para genios, voy a referirme a la probabilidad con la visión estrecha de los entusiastas.
La probabilidad puede ser definida de manera entendible como un número entre cero y uno que puede expresarse de manera fraccionaria o porcentual. El cero es lo imposible y el 1 lo posible. También si gusta podemos decir que es una forma de cuantificar la posibilidad. En síntesis posibilidad y probabilidad están estrechamente ligadas pero no son lo mismo.
Lógicamente lo que escriba lo haré como siempre apelando a la indulgencia de Uds., comenzando por recordar a Democrito, quien milenios atrás nos advertía que todo lo que existe en el universo son átomos, vacío y opiniones, frutos del azar y la necesidad.
Podemos estar o no de acuerdo con esta visión ancestral, pero con lo que seguramente estaremos en sintonía es con lo que decía antes de entrar a Roma Julio Cesar, el cual debido a diferencias mundanales establecidas con el mandamas de turno expresaba su incertidumbre acerca de la probabilidad de lo que podría pasar diciendo, ¨ Alea jacta est ¨ (los dados están echados).
Siglos después, dos genios de la física discutían acerca de la incertidumbre, el azar y la probabilidad con las siguientes metáforas;
A Einstein ¨ UD. cree en un Dios que juega a los dados, y yo en la ley y el orden absoluto ¨
La replica de N Bhor no se hizo esperar, ni tampoco acoto el espacio para el juego de dados diciendo; ¨ Dios no solo juega a los dados, sino que los tira donde nadie los puede ver ¨.
Más cerca en el tiempo Fischbein postulaba, aconsejaba, advertía , con total claridad que; ¨ La intuición probabilística no se desarrolla espontáneamente salvo en estrechos límites. La comprensión, interpretación, evaluación y predicción de los fenómenos probabilísticos no pueden atribuirse a intuiciones primarias, las cuales en la educación formal han sido olvidadas o abandonadas en un estado muy rudimentario ante la presión de los esquemas operacionales que no se pueden articular con ellas. Sin embargo para alcanzar la exigencia de una cultura científica eficiente, es necesario entrenar a los niños desde la primera infancia en la compleja base intuitiva del pensar probabilístico, para lograr en el desarrollo y en el operar de su inteligencia un constructivo balance entre lo posible y lo determinado ¨

Lo expresado por este investigador, además de ser fácil de entender, es absolutamente creíble y nos deja un sabor amargo, el de tiempo pasado y perdido. Casi como un consuelo nos quedamos con nuestra limitada intuición de lo probable y con la esperanza de que sea cierto el refrán de que nunca es tarde para aprender.

Como vemos existe una absoluta semejanza entre lo que ocurre con la probabilidad y el aprendizaje de los idiomas, si no se pudo aprender otro idioma alrededor de los 8 o 9 años el costo será mucho mayor, o no se podrá desarrollar el aprendizaje como seria deseable.
No obstante esta limitante temporal debemos hacer lo posible para incorporar, por lo menos los conceptos básicos de probabilidad a la edad que sea, dada la importancia que la misma tiene en todos los órdenes de nuestras vidas.

La historia como siempre nos presenta hechos interesantes que nos pueden servir para ingresar y comprender con más facilidad distintas disciplinas, la probabilidad no tenía porque ser la excepción.

Los egipcios hace milenios ya jugaban con astrágalos de ovejas, ¡y nosotros que pensábamos que era un invento de nuestros gauchos!. Otro viejo conocido nuestro, también milenario, es el precitado juego con dados.

La invención del juego de dados se atribuye a Palamedes durante el sitio de Troya ( siglo X a. C. ), algunos incluso dicen que fueron inventados siglos antes en la India.
Pasado el tiempo se llamaría al juego de dados y otros juegos con idénticas características, juegos de azar, esta nominación aparentemente se debería a que una de la caras del dado (alea) original, tenía una flor de azahar.

Es seguro que estos antecedentes lúdicos sirvieron para que se avanzara en el conocimiento de la probabilidad, aunque paradójicamente también los problemas sociales e incluso morales planteados por el azar hicieron que se provocara un retraso en la incorporación de la probabilidad al ámbito formal de la matemática.

Sin embargo esto no fue un obstáculo para los jugadores que manejaban sus probabilidades de manera intuitiva, al complicárseles los juegos y las reglas ocultas que los regían, consultaran a matemáticos amigos bien dispuestos, y les presentaran las necesidades imperiosas que tenían de conocer esas reglas ocultas para poder asi sacarles el máximo beneficio probable.

Uno de esos amigos notables fue Galileo, un amigo le pregunto respecto a un juego llamado pasa-diez consistente en lanzar tres dados a la vez y sumar los tres puntos resultantes, ganaba aquel que obtuviera una suma superior a 10 y perdía en caso contrario, el juego era equitativo.

Los jugadores avezados vieron sin embargo, que el 11 salía con más frecuencia que el 12 y el 10 con más frecuencia que el 9 y este problema se le planteo a Galileo. La explicación del ¨experimentador¨ fue sencilla, el 9 se podía formar en total de 25 maneras y el 10 de 27 maneras. El resto del cuestionamiento tiene una manera similar de resolución.

Esta y otras consultas eran hechos aislados y coinciden con el periodo preparatorio o romántico del calculo de probabilidades el cual termina con el problema presentado por Antonine Gambaud, caballero de Mere a B. Pascal, que concito la curiosidad del mismo, tanto que hizo que este estableciera contacto epistolar con Fermat, y las conclusiones darían comienzo a la presentación académica del calculo de probabilidades.

El citado caballero lo consulto a Pascal planteando un problema del cual al parecer existen distintas versiones, y distintas soluciones, una de las cuales es la siguiente: en una partida de dados se habían establecido las siguientes reglas, jugarían a los dados Luís y Daniel cada uno de ellos apostando una cantidad de dinero, el que obtuviese 3 veces el numero tres sin ser necesario que sean en tiradas sucesivas, seria considerado el ganador y se llevaría todo lo apostado, pero si por algún motivo tuvieran que suspender la partida se repartirían el dinero equitativamente.
Luís había conseguido 2 victorias y Daniel 1 y tuvieron que suspender la partida ¿Como cumplir con el reparto equitativamente?
Una solución intuitiva seria que si Luís tiene 2 puntos y Daniel tiene 1 punto la relación 2 a 1 pareciera ser justa. Sin embargo la solución puede no ser satisfactoria para Luís quien tiene más probabilidades que Daniel.
Para poder resolver el problema acorde con este planteo se supone que el juego continua y se calculan probabilidades, lo cual modifica la proporción a una relación 3 a 1 es decir un 75% a un 25% que como vemos es superior a la que se pensó primero. Para justificar esta posición teóricamente la mitad de las veces ganaría Luís en el siguiente lanzamiento y la cuarta tras dos lanzamientos Daniel.

Pareciera que Pascal y Fermat iniciaron de esa manera un movimiento de intelectuales interesados en el cálculo de probabilidades. Como vimos el primum movens fue la necesidad de los jugadores de azar en su afán de saber las reglas matemáticas misteriosas, para ellos, que les permitieran asegurar sus ganancias.

Se puede colegir que los jugadores reconocían explícitamente la necesidad de que debían avanzar mas allá de la intuición como instrumento valido para dar solución a sus demandas de beneficios. Nosotros no podemos ser menos, pero esta visión lamentablemente no es generalizada , muchos no llegan a plantearse la necesidad de conocer reglas probabilísticas.

Pensadores no menores fueron sumando sus conocimientos acerca de la probabilidad y no solo para complacer a conocidos o amigos adictos a los juegos de azar, la física eje para no pocos del conocimiento científico la utilizaría para hacer temblar los sólidos cimientos que había establecido la mecánica newtoniana al desarrollar un nuevo modelo, el de la mecánica quántica y la física estadística.

A partir de allí las cosas ya no serian tan sólidas o absolutas como nos había propuesto el genio de Newton y lo había expresado Laplace a través de lo que se dio a conocer como el demonio laplaciano según el cual:

…..Imaginemos una inteligencia que en cualquier momento, pudiera tener conocimiento de todas las fuerzas que controlan la naturaleza junto con las condiciones momentáneas de todas las entidades que componen la naturaleza. Si esta inteligencia fuera lo suficientemente poderosa como para someter estos datos a análisis, también podría encerrar en una sola formula los movimientos de los cuerpos más grandes del universo y los de los átomos más ligeros; porque no habría nada incierto; el futuro y el pasado estarían igualmente presentes ante sus ojos.


Sin embargo esta inteligencia privilegiada no fue capaz de resolver un problema aleatorio que solo en las primeras décadas del XX fue resuelto por N. Wiener, me refiero al movimiento de las partículas de polen en el agua, dándole formulación probabilística.

Este movimiento es conocido como browniano porque fue visto por primera vez por el botánico R. Brown en 1828 El determinismo y la matemática clásica no podía ni pueden resolver problemas de este tipo.

I Prigogyne sentencia que pensar de manera determinista haría que Dios quedara reducido a un archivero que va pasando las páginas de un libro, el del cosmos, el cual ya estaría escrito. Analiza además la evolución desde dos ópticas y dos figuras del siglo XIX íntimamente ligadas al concepto de probabilidad; C. Darwin para quien la evolución aparece como un fenómeno irreversible con complejidad creciente y autoorganizado y L. Boltzmann con su segunda ley de la termodinámica, (entropía en griego, evolución) considera a la evolución de los sistemas aislados como fenómenos irreversibles que cesan cuando la entropía alcanza su valor máximo, destacando que la formulación matemática de la misma esta íntimamente relacionada con la estadística y la probabilidad.

Nadie puede creer que las ideas acerca de la probabilidad sean solo abstracciones sin sentido práctico, esta es una herramienta poderosa a la hora de tomar decisiones cuando se suman información incierta y riesgos reales, hechos ambos habituales en nuestra actividad profesional y en todos los órdenes de la vida.

Como era de esperar el calculo de probabilidades siguió su crecimiento ascendente y se incorporo definitivamente como un instrumento de análisis extremadamente poderoso para el estudio de fenómenos biológicos, económicos y sociales y en
general para todos los aquellos eventos cuyas causas sean muy complejas.

No es necesario expresar porque en medicina el cálculo de probabilidades encontró un lugar de irrenunciable y necesario privilegio.

El cálculo de probabilidades

De manera entendible podemos definir al cálculo de probabilidades como el conjunto de proposiciones que nos permiten medir la aleatoriedad de un fenómeno a través de la asignación de un modelo matemático, que sea capaz de conceptualizar, resumir y simplificar la esencia aleatoria de dicho fenómeno.
Una definición descriptiva y amplia que vale la pena tener en cuenta

Probabilidad enfoque antiguo
Se apoya en el principio de la razón insuficiente que significa que si no tenemos forma de demostrar que los casos posibles no son igualmente posibles, debemos aceptar que tienen igual probabilidad de presentación.
Su formula: los casos favorables de un evento sobre los casos posibles. Ej. Si compro un billete de lotería se la cantidad de casos posibles.

La probabilidad frecuencial
Se basa en la experimentación, es decir en el análisis del comportamiento que tuvo en fenómeno cuya probabilidad nos interesa y no podemos saber la cantidad de casos posibles. Para determinar la probabilidad frecuencial se repite el experimento un número determinado de veces, se registran los datos y se calcula.
Probabilidad frecuencial = numero de veces del resultado de interés / numero de repeticiones del experimento

La probabilidad condicional
Es aquella probabilidad que depende de una probabilidad anterior, ejemplo; si en lugar de tirar dos dados juntos hacemos la jugada en forma sucesiva y queremos obtener una suma determinada, en primer lugar el espacio maestral se reduce con todas las consecuencias que esto trae aparejada. La primera tirada condiciono a la segunda, esta forma de probabilidad que depende de un suceso anterior se denomina probabilidad condicional.
La probabilidad condicional es tan desconocida como utilizada sea en nuestra actividad cotidiana, en nuestra actividad medica o en la profesional en general.
Al tomar contacto con el paciente comenzamos por distintos mecanismos concientes o no, a cargar ¨ prevalencia individual ¨ , probabilidad previa o probabilidad de base.

La probabilidad previa, es un concepto nuclear cuya incorporación modifica necesariamente nuestra visión intelectual, es el resultado de una amalgama de conocimientos, experiencias, intuiciones y errores, catalizados por un aditivo que muchos tratan inútilmente de evitar , la subjetividad. tal como corresponde a nuestra condición de sujetos pensantes.

El calculo de la probabilidad condicional mediante el teorema de Bayes es fundamental en aplicaciones de la inferencia estadística, es un instrumento matemático que nos permite el transito ordenado desde la probabilidad previa o de base a la probabilidad posterior. Este transitar de varias maneras ,las mas accesibles son el árbol de resolución o la tabla de contingencia.
Si bien ambos métodos concurren al mismo resultado existen preferencias por uno u otro.


Algo mas acerca del déficit de formación probabilística

Es evidente que tenemos un déficit de pensamiento probabilístico, como también que este es decisivo para mayoría de las ciencias, sin dudas es un sesgo intelectual que nos resulta doloroso y el cual necesitamos imperiosamente corregir, pero es mucho más doloroso cuando recién tratamos de solucionarlo durante los años universitarios.

Como siempre en primer lugar debemos tomar conciencia de que existe el problema y que este nos pertenece, una toma de posición que no todos lamentablemente estamos decididos a asumir, pese a que esto imprescindible para salir a la búsqueda de las soluciones.
Tal vez una manera apropiada de comenzar podría ser la de conocer que opinaban respecto a la probabilidad algunos pensadores.

J. Piaget sostenía que antes de los 7-8 años los niños se mueven en un esfera ajena a la del azar, no distinguiendo lo posible de lo seguro, J. Bruner insistía en la necesidad de estimular el pensamiento intuitivo en los niños .
F. Fischbein citado mas arriba, hace una distinción entre la intuiciones probabilísticas primarias que son aquellas que ocurren antes de la instrucción sistemática y las intuiciones probabilísticas secundarias que son las adquiridas a través de un proceso sistemático apoyadas en un background de conocimientos previos.

Sostiene además, que la intuición probabilística no se desarrolla espontáneamente salvo en límites estrechos y que para alcanzar las exigencias que demanda el conocimiento científico es necesario realizar su entrenamiento desde la primera infancia, para lograr asi que la inteligencia alcance un balance entre lo probable y lo determinado .

De todas maneras cuando el azar interviene, los procesos mentales frecuentemente se acompañan de algunos errores, en este sentido existen estudios que nos ayudan a evitarlos y que se refieren a ellos como los ¨ atajos mentales ¨ que usamos casi inconcientemente para tomar decisiones en condiciones de incertidumbre.

Recordemos que el conocimiento de los errores no implica que no volveremos a cometerlos, en lenguaje vulgar, el hombre es el único animal que tropieza dos veces con la misma piedra.

Estos atajos mentales para la estimación de probabilidad son de uso habitual y han sido bautizados por Tversky y Kahneman (Premio Nóbel) en 1974 como heurísticas, y son definidas como un método intuitivo ,espontáneo, empírico como parte de un proceso de evaluación espontánea para resolver problemas en lugar de someterlos a un análisis riguroso.

Las heurísticas producen inferencias válidas a partir de pocos datos, pero como comentaba mas arriba, lamentablemente también nos hacen cometer errores. Kahneman y Tverski realizaron diversos experimentos que pusieron en superficie cuales son precisamente estos errores y los dividieron en:
1) Heurísticas de representatividad a) insensibilidad a la probabilidad a priori b) insensibilidad al tamaño muestral c) equívocos sobre la regresión d) equívocos sobre el azar
2) Heurísticas de disponibilidad a) supravaloracion de la experiencia subjetiva b) impacto en la memoria c) correlaciones ilusorias
3) Heurísticas de anclaje y ajuste a) ajuste inapropiado b)conservadurismo

Es fácil advertir que debemos hacer lo posible para que las heurísticas ingresen al campo de nuestros conocimientos explícitos, debido tanto a su uso frecuente como a su importancia en las tomas de decisiones y fundamentalmente porque su desconocimiento no nos pone sobre aviso de los posibles errores que podemos cometer al decidir cursos de acción.

Como médicos las usamos en forma rutinaria, razón suficientemente valida para estar obligados a conocerlas, pero debemos conformarnos esta no es una obligación solo para nuestra profesión.

.......nuestra capacidad de generar relaciones causales es uno de los factores que mantienen las creencias, opiniones y modelos, aunque las predicciones no coincidan con las evidencias observadas en lugar de substituirlos por otros que se adecuen mejor a la realidad...
Kahneman y Tversky

La extraordinaria estabilidad de algunas especies, los miles de millones de años que cubre la evolución, la invariancia del plan químico fundamental de la célula no pueden evidentemente explicarse mas que por la extrema coherencia del sistema teleonomico que, en la evolución a jugado pues el papel a la vez de guía y de freno, y no a retenido, amplificado, integrado mas que una ínfima fracción de las probabilidades que le ofrecía, en números astronómico, la ruleta de la naturaleza ¨.
J. Monod



Lo paradójico y lo falaz

Las paradojas y las falacias son nuestras eternas compañeras intelectuales y merecen todo nuestro respeto y consideración, ellas tienen facetas que las hacen dignas de toda atencion, en este sentido me parece importante relatar casi textualmente paradojas y falacias que encontré buscando los problemas que genera el mal uso de las estadísticas y el calculo de probabilidades.



Paradoja

¨ En los días húmedos me duelen más todos los huesos ¨. Creo que casi todos hemos escuchado esta afirmación o una muy parecida
Para ver si existe o no una correlación se realizo un estudio estadístico muy elemental: se tomaron los días húmedos con dolor y sin dolor en el mes de junio y julio y se compararon los resultados obtenidos.
En junio de 10 días húmedos el dolor se presento en 9 y de 20 días secos solo en 15. Es decir en un 90 % y en un 75% respectivamente de los días.
En el mes de julio el dolor apareció en 4 de 20 días húmedos es decir en 20% y solo en 1 de los 10 días secos es decir en un 9%.

Como vemos no quedan dudas de que en cada mes los días lluviosos se acompañan estadísticamente de más dolor que en los días secos, hecho que da la razón a la afirmación popular, en los días húmedos me duelen más todos los huesos.

Sin embargo la sorpresa es que cuando se hace el estudio bimestral y nos encontramos que en los días húmedos que son un total de 30 el dolor se presento solo en 13 es decir en el 43% y en los días secos que son 42 el dolor se presento en 16 días es decir en el 52 % de los mismos.

Podemos buscar donde esta el error, pero acordemos que las paradojas son como decía alguien con mucha razón, la pasión del pensamiento, no en vano sus orígenes se remontan a los griegos egregios quienes las denominaban aporías, es decir aquello que no tiene salida. Muchas paradojas gozan de salud milenaria, con distintos relatos e idéntica forma lógica.

La falacia

Las falacias son argumentaciones que no son verdaderas pero que lo parecen, son muy convincentes aunque lógicamente inadmisibles. Los ejemplos cotidianos son muy numerosos y lo grave es que sus disfraces pueden ser muy ingeniosos y los resultados muy funestos, como las que les relatare.

Me refiero a la de O J Simpson y la de Sally Clark ,por supuesto que existen muchas otras más o menos conocidas.

No creo necesario presentarles a O. J. Simpson, un violento acerca del cual en el diario Philadelphia Inquirer el matemático John Allen Paulos le dedico un artículo que de como utilizo, manipulo, las estadísticas el abogado defensor de Simpson personaje que fuera acusado del asesinato de su mujer expresando lo siguiente:
"Además de la desagradable sensación producida por el folletín Simpson, ha habido muchos ejemplos de lo que podríamos llamar estaticidio. Permítaseme empezar por un estribillo repetido continuamente durante el proceso por el abogado Alan Dershowitz. Este hombre afirmaba que, puesto que menos del uno por mil de las mujeres maltratadas por sus compañeros mueren a manos de éstos, los malos tratos producidos en el matrimonio Simpson no tenían que ver con el caso.
Aunque las cifras son correctas, las palabras del señor Dershowitz son de una incongruencia apabullante; no tienen en cuenta un hecho ineludible: Nicole Simpson murió de muerte violenta. Dadas ciertas suposiciones fácticas razonables de homicidio y malos tratos conyugales, se puede ver fácilmente, empleando el teorema de Bayes, que si un hombre maltrata a su mujer o novia y ésta muere asesinada después, el vapuleador es el homicida más del 80 % de las veces.
Así pues estaba matemáticamente justificado, a falta de otros indicios, que la policía sospechara inmediatamente del señor Simpson. No estoy defendiendo en modo alguno la derogación de los derechos de nuestra cuarta enmienda; me limito a puntualizar que señalar con el dedo al señor Simpson no era, tal como estaban las cosas, ilógico, ni fuera como sostenía el defensor una muestra de racismo".
¿Serían frecuentistas o bayesianos los miembros del jurado?
El abogado había expuesto que según los datos del FBI en 1992 que un marido o novio abusador continuara hasta el asesinato solo se daba en 1 entre 2500 casos, es decir que pocos abusadores continúan hasta matarlas.
Esto pareciera ser verdad, pero el planteo no es el correcto, además de la importancia de la probabilidad previa, es importante saber que el 90 % de todas las mujeres maltratas y asesinadas lo fueron por su abusador lo cual si es un dato relevante.
En síntesis si bien el abusador continuaba en 1 en 2500 al homicidio, de las mujeres maltratadas y asesinadas el 90 % lo era por su abusador.
Sin embargo casi todos recuerdan que como resultado del juicio O Simpson fue absuelto. En la actualidad el ¨not guilty ¨ sigue sumando probabilidad previa como personaje violento ya que según la informacion periodística fue el autor de un asalto a mano armada en un hotel de Las Vegas y seria sometido nuevamente a juicio aunque solo por ese delito.
Lo de Sally Clark fue distinto aunque por eso también lamentable, la justicia reservo para ella un desenlace totalmente opuesto, se la condeno a cadena perpetua.
Su caso fue revisado y puesta en libertad y para algunos esto pareciera ser que se hizo justicia . No creo que fuera tan asi ni suficiente, ya que al dolor personal y familiar se la sumo su muerte posterior a la liberación que en realidad fue un suicido.
El relato que hago es casi textualmente como lo encontré en la red:
¨ El caso de Sally Clark merece ser conocido, y hay varias lecciones que todos deberíamos aprender de ella. Pero antes de contarla, tenemos que ponernos en un caso hipotético.
Supongamos que usted forma parte de un jurado. Tiene que juzgar un caso difícil: una madre a la que se acusa de asesinar a sus dos hijos recién nacidos. La defensa argumenta que se trata de dos casos de “muerte súbita del lactante”, un fenómeno sin causa conocida que afecta a uno de cada 8500 nacidos.
Con estos datos, usted razona que la probabilidad de que esto ocurra en dos ocasiones es de 1 entre 85002 (=73 millones). Y por tanto la probabilidad de que la acusada sea inocente es de 1 entre 73 millones. Esto es tan inverosímil que, en conciencia, tiene que votar “culpable”.
Bien, pues resulta que no se trata de un caso hipotético. Es el caso de Sally Clark, que fue juzgada en Inglaterra en noviembre de 1999, acusada de asesinar a sus hijos Christopher (muerto en 1996), y Harry (en 1998). Ocho de los diez miembros del jurado razonaron como podría hacrlo usted y Sally fue condenada a cadena perpetua.
Tres años después fue puesta en libertad al revocarse la sentencia, que fue calificada como ¨uno de los mayores errores judiciales de la historia moderna de Gran Bretaña”. Para Sally fue demasiado tarde. No consiguió sobreponerse a su desgracia. Apareció muerta en su casa, se suicido.
Multiplicando probabilidades
Pero ¿dónde está el error? En realidad, hay dos errores graves en el razonamiento del jurado. En primer lugar, que la probabilidad de muerte súbita del primer hermano sea de 1 entre 8500 no significa que la de los dos sea 1 entre 85002, porque las probabilidades sólo se multiplican si los sucesos son independientes.
Esto fue ignorado por el prestigioso pediatra Sir Roy Meadow, que testificó como experto ante el tribunal, y convenció al jurado de que la probabilidad era de una entre 73 millones: tal cosa debería ocurrir menos de una vez por siglo en Inglaterra.
Los datos que manejó Meadow no detallaban si había más incidencia de muertes súbitas en familias en las que ya había habido alguna. En un fenómeno tan raro es difícil tener datos significativos. Y sin embargo, es de sentido común pensar que puede haber tal correlación: la primera muerte súbita tendrá alguna causa, por más que la desconozcamos, y parece probable que esa causa pudiera actuar también en el segundo hermano (es lo que ocurriría, por ejemplo, si la muerte tuviera relación con un defecto genético).
Después del juicio, Ray Hill, un matemático de la Universidad de Salford, analizó los datos y estimó que la probabilidad de dos muertes es de 1 entre 850000, no una entre 73 millones.
De todas maneras, podemos pensar, sigue siendo una probabilidad ínfima: ¡casi una entre un millón!.
El problema (y ahí está el segundo error, el más grave) es que lo que hemos calculado la probabilidad de dos muertes súbitas en una familia, no es la igual a la probabilidad de que Sally sea inocente.
Confundir ambas probabilidades es lo que se llama en estadística la falacia del fiscal .Casi todo el mundo la comete, no sólo los fiscales. Desgraciadamente, también los jurados y los jueces.
¿Por qué se trata de una falacia?.
Supongamos que a usted le ha tocado el premio gordo de la Lotería de Navidad. Digamos que hay una probabilidad entre 1000000. Por tanto, la probabilidad de que a usted le haya tocado el premio por azar es sólo de 1 entre 1000000. Y por tanto, casi con seguridad le ha tocado fraudulentamente -usted ha manipulado el bombo, ha sobornado a los niños cantores …- En fin, que debería ser juzgado por estafa.
Evidentemente este razonamiento no tiene ni pies ni cabeza, pero es exactamente el mismo que acabábamos de hacer con la pobre Sally Clark. En el caso de la Lotería, está claro que lo más probable es que a usted simplemente le haya tocado el gordo por azar: es improbable, pero mucho más improbable son las explicaciones alternativas.
Así que antes de votar “culpable” tenemos que ponderar la probabilidad de la explicación alternativa a la inocencia de Sally Clark.
Que una madre mate a su hijo es muy raro la mayoría ocurre en familias marginales con muchos problemas, lo que no era en absoluto el caso de Sally Clark, una respetable abogada.
Todo esto fue explicado en una nota oficial de la Royal Statistical Society emitida en octubre de 2001, con Sally Clark aun en la cárcel, utilizando el teorema de Bayes. El escándalo fue creciendo: una campaña de apoyo consiguió que salieran a la luz cerca de cincuenta familias que habían sufrido dos muertes súbitas (¡pese al evidente peligro de ser condenadas a cadena perpetua!). El juicio se revisó… y ya sabemos el triste final de la historia, pese a la absolución final.
Epílogo
Dije al principio que había varias lecciones que aprender del caso de Sally Clark. Me he centrado en la falacia del fiscal. Parece increíble que, siendo un resultado conocido desde hace más de dos siglos, sea ignorado sistemáticamente por quienes mejor debieran conocerlo: jueces y jurados.
Pero hay más, y quien tenga la paciencia de leerse los enlaces (desgraciadamente no he encontrado nada en español, salvo una referencia en este blog no sabrá decidir qué es más indignante: esta ignorancia culpable, la negligencia con las pruebas (no había evidencia concluyente de malos tratos, y se ignoró que la autopsia del segundo niño había encontrado una infección que podría haber causado su muerte), o la irresponsabilidad de la prensa británica que demonizó a Sally y muy probablemente la empujó a la muerte”.
Como vemos el cálculo de probabilidades ha desarrollado un campo en el cual hay quienes pretenden explicar para bien o para mal todo fenómeno humano munidos de estadísticas.
Para el final
Recordemos que el juramento de decir la verdad y nada mas que la verdad, solo rige para los testigos y excluye a jurados, abogados y jueces y da pie a que se usen los datos según corresponda a los intereses personales, una manera moderna de sometimiento de los datos al lecho de Procusto, también conocido como el estirador, si la cama te queda corta te estiro si te queda larga te serrucho.


Glosario mínimo:
Aleatorio: perteneciente o relacionado con el azar
Espacio muestral: es el conjunto de todos los resultados posibles de un experimento aleatorio
Estadístico: numero calculado a partir de los datos de la muestra que cuantifica una característica de ella
Estudios observacionales: ninguna variable es controlada por el investigador a) naturalista, b) estimación de parámetros c) correlaciónales.
Estudios experimentales: se controla una variable, (independiente) y se estudia el efecto que causa sobre otra variable (dependiente).
Experimentos y sucesos aleatorios: un experimento es aleatorio si se verifican las siguientes condiciones: 1. Se puede repetir indefinidamente, siempre en las mismas condiciones; 2. Antes de realizarlo, no se puede predecir el resultado que se va a obtener; 3. El resultado que se obtenga pertenece a un conjunto conocido previamente de resultados posibles. A este conjunto, de resultados posibles, lo denominaremos espacio muestral Los elementos del espacio muestral se denominan sucesos elementales.
Incertidumbre: Es el grado de desconocimiento porque existen desacuerdos sobre lo que se sabe o podría saberse. Inseguridad
Dado: hexaedro regular cuyas caras están numeradas con distintas cantidades de puntos del 1 al 6 de tal manera que la suma de sus puntos correspondientes a las caras opuestas es 7, construido acorde con reglas que permitan la condición de experimento aleatorio.
Datos: unidad mínima de conocimiento que tiene una estructura invariable a) argumento b) variable c) valor de la variable d) indicador o procedimiento con que se obtuvo el dato.
Factor de riesgo: variable endógena o exógena, que puede ser controlada, precede al comienzo de la enfermedad, asociada a un incremento de la probabilidad de incidencia de una enfermedad y tiene responsabilidad en su producción, sin ser causa favorece. Se pueden medir como tasas de incidencia o prevalencia y el grado se expresa como RR, RRA, OR, entre otros.
Intervalo de confianza: cuantifica la incertidumbre, se describe habitualmente como IC 95% rango que nos da la seguridad de que sea el verdadero valor para la población y los valores extremos del rango se llaman límites de confianza.
Marcador de riesgo: variables endógenas no controlables que definen a personas vulnerables, sin influencia directa
Muestra: subconjunto de la población, conjunto de resultados posibles
Muestreo aleatorio: permite aplicar leyes de probabilidad a los datos y ayuda que la muestra sea representativa de la población de la cual fue extraída.
Población: conjunto completo de individuos, objetos o datos que el investigador esta interesado en estudiar.
Parámetro: numero calculado sobre los datos de una población que cuantifica una característica de la población.
Riesgo: riesgo es la contingencia de un hecho. A su vez contingencia significa que se pueda materializar en un momento o no hacerlo nunca. ...Sucesos elementales: cualquier elemento del espacio muestral
Variable: cualquier propiedad o característica de un evento, objeto o persona que pueda tener diversos valores en distintos instantes según las condiciones
Variable independiente: aquella que puede ser controlada por el investigador en forma sistemática
Variable dependiente: es la que mide el investigador para cuantificar el efecto de la dependiente

Bibliografía

T Greenhalgh. Como Leer un articulo Científico Guía básica de la medicina basada en las evidencia. BMJ 2001
S Glantz .Bioestadística. MacGrawHill Interamericana 2005
L Silva .Cultura estadística e investigación científica en el campo de la salud Díaz de Santos 1997
F Fischbein .La intuición como fuente de la probabilidad en los niños
J Piaget Inhelder. La génesis de la idea del azar en la infancia
P. Juez Martel J .Díaz Vegas. Probabilidad y estadística en Medicina Díaz de Santos 1997
E J Larson Evolución La Asombrosa Historia de una Teoría Científica. Editorial Sudamericana 2007
J.Monod El azar y la necesidad Ediciones Orbis 1970
H. Sox. Medical Decision Making. Butterwhort-Heinemann 1988
G, Norman D. Striner Bioestadística Mosby Doyma libros 1996
P Juez Martel .probabilidad y Estadística en Medicina Díaz de Santos 1997
I Prigogine ¿Tan solo una Ilusión? Una exploración del Caos al orden .Metatemas 3-1997
L Mlodinow. El andar del borracho. Editorial Crítica 2008

No comments: