Nuestro derecho a una explicación y más
¿Y la jugada 38?
En la taxonomía de Bloom el
segundo nivel del dominio cognitivo es
un combo donde ; Entender es el punto de entrada para captar el
significado básico de algo, un entendimiento superficial, pero indispensable. Comprender es integración más
profunda y holística que conecta y se ven las relaciones, las causas y los
efectos, las implicaciones y el contexto. Es la asimilación del conocimiento en
nuestra estructura mental. Explicar es la manifestación externa y la prueba fehaciente
de que la comprensión ha tenido lugar y requiere organizar los pensamientos, usar propias palabras y "traducir" la comprensión interna en una comunicación
efectiva. Hay formas actualizadas incluso digital de la taxonomía de Bloom, te
esperan.
Cuando
el algoritmo sentencia
De
aquellos algoritmos de la época de estudiantes han ocurrido cosas , hoy los ordenadores
están tomando decisiones que pueden cambiarnos la vida. Y ya lo están haciendo
para bien y no tanto para bien. Un ejemplo es lo del algoritmo COMPAS en el
caso Eric Loomis, el juez consulto al
algoritmo y este considero a Loomis de alto
riesgo, la condena fue de 6 años.
Ni el juez ni
el acusado sabían que metodología uso el
algoritmo, es *secreto comercial*. Una excusa frecuente en muchas áreas que es
la punta del iceberg, un ejemplo de lo
que puede o nos puede suceder en muchas
disciplinas. COMPAS (Correctional Offender
Management Profiling for Alternative Sanctions) es utilizado en el sistema
judicial de los Estados Unidos, diseñado para predecir la probabilidad de que
un delincuente cometa un nuevo delito (riesgo de reincidencia). Este algoritmo
se utiliza en decisiones relacionadas con la libertad bajo fianza, la libertad
condicional y las sentencias. Su uso ha sido muy criticado por problemas de
equidad, transparencia ,sesgo, precisión en contextos…
Cuando
comente esto en el ¨laboratorio¨ de café ,Cacho en su condición de abogado y
con ¨derecho¨ no estuvo absolutamente de acuerdo con esto que la sociedad encomiende cada vez más
decisiones a los ordenadores , está socavando la viabilidad de los mecanismos auto correctores , de transparencia, y rendición de cuentas democráticos. ¿Cómo
puede un grupo de funcionarios regular unos algoritmos incomprensibles? Esto
hace que más voces pidan como nuevo un ancestral derecho humano; ¨la
explicación¨ ¿ Puede este derecho cumplirse en la práctica? Cacho agrego con
que en ¨nuestra justicia¨ eso no es aceptable. ¿Lo será por mucho tiempo?
A tener presente: El programa Alpha Go se diseñó para jugar al go, un
juego más difícil que el ajedrez y logro
vencer al campeón Lee sedol. La jugada 37 es un emblema de la revolución
de la IA por dos razones:
La primera ,¨demostró
la naturaleza ajena de la IA¨, la cual está usando estrategias e ideas que no
sabían los mejores jugadores, libre de las limitaciones humanas descubrió, y exploró
áreas ocultas .
La segunda , ¨demostró
la ininteligibilidad de la IA¨ ,el equipo de investigadores no pudo explicar lo
hecho, aun después de que se hiciera la jugada 37 ¿ Muchas tecnologías se están
escapando a la capacidad de cualquiera de entender lo que los algoritmos están
haciendo?
Si nuestra vida depende cada
vez más de la ¨caja negra¨ cuya comprensión y comportamiento quedan fuera de la
voluntad: ¿La democracia dejara de funcionar? En concreto ¿Qué pasará cuando algoritmos
insondables tomen decisiones de importancia no solo acerca la vida de los individuos sino también sobre cuestiones de interés
general?
Caja negra,
ayer y hoy
La noción de “caja negra” no
es nueva. Recuerdo una tarde de la década del setenta. Con Pedro Vázquez y
Blanca, un día de pesca que parecía prometedor con nuestro guía , intentamos
varias veces arrancar la lancha sin éxito. Después del décimo intento, Pedro
nos dijo simplemente: Es la caja negra. Y cuando pregunté quién podía
arreglarla, su respuesta fue tan definitiva como lapidaria: No tiene arreglo.
Es caja negra. En aquel momento era una metáfora mecánica. Hoy, la caja negra
es digital, algorítmica y decisoria. Y está presente en el corazón mismo de
decisiones médicas, financieras, militares y judiciales…
Volvamos al título: ¿puede
garantizarse el derecho a una explicación en una época en que los
algoritmos son deliberadamente opacos, o tan complejos que ni sus creadores
pueden dar cuenta de ellos? Sandra
Wachter, investigadora de la Universidad de Oxford, propuso formalizar este
derecho en el contexto legal del siglo XXI, argumentando que sin
explicación no hay justicia, ni consentimiento, ni ciudadanía informada.
Sin embargo, la dificultad es técnica, política y filosófica a la vez. ¿Y?
Conclusión ¿Y
la jugada 38?
Si nuestras vidas están cada
vez más determinadas por decisiones algorítmicas, incomprensibles y opacas, la
pregunta no es si la inteligencia artificial avanzará. La pregunta es: ¿quién
va a explicar la jugada 38? Porque si ni siquiera podemos entender lo que
ya ocurrió, ¿cómo nos defenderemos de lo que vendrá?
No hay comentarios:
Publicar un comentario