lunes, junio 23, 2025

Nuestro derecho a una explicación y más


 

Nuestro derecho a una explicación y más


¿Y la jugada 38?

En la taxonomía de Bloom el segundo nivel del dominio cognitivo  es un combo donde ;  Entender  es el punto de entrada para captar el significado básico de algo, un entendimiento superficial, pero indispensable. Comprender es integración más profunda y holística que conecta y se ven las relaciones, las causas y los efectos, las implicaciones y el contexto. Es la asimilación del conocimiento en nuestra estructura mental. Explicar  es la manifestación externa y la prueba fehaciente de que la comprensión ha tenido lugar y requiere organizar los pensamientos, usar  propias palabras y "traducir" la  comprensión interna en una comunicación efectiva. Hay formas actualizadas incluso digital de la taxonomía de Bloom, te esperan.

Cuando el algoritmo sentencia

De aquellos algoritmos de la época de estudiantes han ocurrido cosas , hoy los ordenadores están tomando decisiones que pueden cambiarnos la vida. Y ya lo están haciendo para bien y no tanto para bien. Un ejemplo es lo del algoritmo COMPAS en el caso Eric Loomis, el  juez consulto al algoritmo y este considero a Loomis  de alto riesgo, la condena fue de 6 años.

Ni el juez ni el acusado sabían que  metodología uso el algoritmo, es *secreto comercial*. Una excusa frecuente en muchas áreas  que  es la punta del iceberg, un ejemplo  de lo que puede o nos puede  suceder en muchas disciplinas. COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) es utilizado en el sistema judicial de los Estados Unidos, diseñado para predecir la probabilidad de que un delincuente cometa un nuevo delito (riesgo de reincidencia). Este algoritmo se utiliza en decisiones relacionadas con la libertad bajo fianza, la libertad condicional y las sentencias. Su uso ha sido muy criticado por problemas de equidad, transparencia ,sesgo, precisión en contextos…

Cuando comente esto en el ¨laboratorio¨ de café ,Cacho en su condición de abogado y con ¨derecho¨ no estuvo absolutamente de acuerdo con esto que la sociedad encomiende cada vez más decisiones a los ordenadores , está socavando la viabilidad de los mecanismos  auto correctores , de transparencia,  y rendición de cuentas democráticos. ¿Cómo puede un grupo de funcionarios regular unos algoritmos incomprensibles? Esto hace que más voces pidan como nuevo un ancestral derecho humano; ¨la explicación¨ ¿ Puede este derecho cumplirse en la práctica? Cacho agrego con que en ¨nuestra justicia¨ eso no es aceptable. ¿Lo será por mucho tiempo?

A tener presente: El programa Alpha Go se diseñó para jugar al go, un juego más difícil que el ajedrez y logro  vencer al campeón Lee sedol. La jugada 37 es un emblema de la revolución de la  IA por dos razones:  

 

La primera ,¨demostró la naturaleza ajena de la IA¨, la cual está usando estrategias e ideas que no sabían los mejores jugadores, libre de las limitaciones humanas descubrió, y exploró áreas ocultas .

La segunda , ¨demostró la ininteligibilidad de la IA¨ ,el equipo de investigadores no pudo explicar lo hecho, aun después de que se hiciera la jugada 37 ¿ Muchas tecnologías se están escapando a la capacidad de cualquiera de entender lo que los algoritmos están haciendo?

Si nuestra vida depende cada vez más de la ¨caja negra¨ cuya comprensión y comportamiento quedan fuera de la voluntad: ¿La democracia dejara de funcionar? En concreto ¿Qué pasará cuando algoritmos insondables tomen decisiones de importancia no solo acerca la vida de los  individuos sino también sobre cuestiones de interés general?

Caja negra, ayer y hoy

La noción de “caja negra” no es nueva. Recuerdo una tarde de la década del setenta. Con Pedro Vázquez y Blanca, un día de pesca que parecía prometedor con nuestro guía , intentamos varias veces arrancar la lancha sin éxito. Después del décimo intento, Pedro nos dijo simplemente: Es la caja negra. Y cuando pregunté quién podía arreglarla, su respuesta fue tan definitiva como lapidaria: No tiene arreglo. Es caja negra. En aquel momento era una metáfora mecánica. Hoy, la caja negra es digital, algorítmica y decisoria. Y está presente en el corazón mismo de decisiones médicas, financieras, militares y judiciales…

Volvamos al título: ¿puede garantizarse el derecho a una explicación en una época en que los algoritmos son deliberadamente opacos, o tan complejos que ni sus creadores pueden dar cuenta de ellos?  Sandra Wachter, investigadora de la Universidad de Oxford, propuso formalizar este derecho en el contexto legal del siglo XXI, argumentando que sin explicación no hay justicia, ni consentimiento, ni ciudadanía informada. Sin embargo, la dificultad es técnica, política y filosófica a la vez. ¿Y?

Conclusión ¿Y la jugada 38?

Si nuestras vidas están cada vez más determinadas por decisiones algorítmicas, incomprensibles y opacas, la pregunta no es si la inteligencia artificial avanzará. La pregunta es: ¿quién va a explicar la jugada 38? Porque si ni siquiera podemos entender lo que ya ocurrió, ¿cómo nos defenderemos de lo que vendrá?

 

 

No hay comentarios:

Archivo del blog