¿Ayuda la IA a los humanos a tomar mejores decisiones? Esto piensan los expertos de Harvard

Un nuevo trabajo sobre inteligencia artificial se centra sobre ámbito de la justicia, en relación a los fallos de un juez. Los resultados sorprenden a los investigadores.

Inteligencia artificial IA justicia juez fianza
La IA estudiada no tenía en cuenta específicamente la raza, sino que se centraba en la edad y en nueve factores relacionados con la experiencia delictiva pasada.

Un nuevo trabajo sobre inteligencia artificial (IA) se centra sobre ámbito de la justicia y sorprende a los investigadores. El análisis sobre los fallos de un juez (tomados con ayuda y ayuda de la IA) concluye que no sólo el algoritmo de IA no mejora la precisión de las decisiones judiciales, sino que, por sí sola, la tecnología obtiene peores resultados que los humanos.

No sólo el algoritmo de IA no mejora la precisión de las decisiones judiciales, sino que, por sí sola, la tecnología obtiene peores resultados que los humanos.

"Muchos investigadores se han centrado en si el algoritmo tiene un sesgo o la IA tiene un sesgo", señala el coautor Kosuke Imai, profesor de Gobierno y Estadística. "Lo que no han analizado realmente es cómo afecta el uso de la IA a la decisión humana".

Aunque varios sectores, como la justicia penal, la medicina e incluso los negocios, utilizan recomendaciones de IA, los humanos suelen ser quienes toman la decisión final. Los investigadores tuvieron esto en cuenta comparando las decisiones sobre fianzas penales tomadas por un solo juez con las recomendaciones generadas por un sistema de IA.

¿Cómo fue el trabajo con IA sobre las decisiones de un juez?

El ensayo controlado aleatorio se llevó a cabo en el condado de Dane (Wisconsin) y se centró en si los detenidos quedaban en libertad bajo palabra o se les imponía una fianza en efectivo.

Los investigadores (dirigidos por Imai y Jim Greiner, Honorable Profesor de Derecho Público S. William Green de la Facultad de Derecho de Harvard) pusieron su punto de mira en las audiencias celebradas por un único juez durante un periodo de 30 meses, entre mediados de 2017 y finales de 2019. También se analizaron los datos de detención de los acusados hasta 24 meses después.

Los resultados mostraron que la IA por sí sola obtuvo peores resultados que el juez a la hora de predecir reincidencias, en este caso, al imponer la restricción más estricta de la fianza en efectivo.

Al mismo tiempo, no se observaron apenas diferencias entre la precisión de las decisiones tomadas por humanos y las tomadas con ayuda de la IA. El juez no siguió las recomendaciones de la IA en algo más del 30 % de los casos.

Inteligencia artificial IA justicia juez fianza
La IA recomendó medidas demasiado duras.

"Esto me sorprendió", dijo Greiner. "Dadas las pruebas que hemos citado de que los algoritmos a veces pueden superar las decisiones humanas, parecía que lo que ocurría es que este algoritmo se había configurado para ser demasiado riguroso. Predijo en exceso que los detenidos se comportarían mal, predijo que lo harían con demasiada frecuencia y, por tanto, recomendó medidas demasiado duras".

Según los profesores, este problema podría solucionarse recalibrando el algoritmo. "Es mucho más fácil entender y luego corregir el algoritmo o la IA que al ser humano", dijo Imai. "Es mucho más difícil cambiar al humano o entender por qué los humanos toman sus decisiones".

Conclusiones acerca del rol de la inteligencia artificial en este estudio

La IA estudiada aquí no tenía en cuenta específicamente la raza, sino que se centraba en la edad y en nueve factores relacionados con la experiencia delictiva pasada. Imai, experto en el uso de modelos estadísticos para denunciar el "gerrymandering" racial, atribuyó las desigualdades relativas a las fianzas en efectivo a diversos factores sociales, especialmente relacionados con los antecedentes penales.

Reconoció que las conclusiones del estudio pueden ser motivo de preocupación, pero señaló que las personas también son parciales. "La ventaja de la inteligencia artificial o de un algoritmo es que puede ser transparente", dijo. La clave es contar con una IA de código abierto que esté disponible para su evaluación y análisis empíricos".

La forma en que el sistema de justicia penal utiliza actualmente la IA, así como las decisiones humanas no guiadas, debe estudiarse con vistas a introducir mejoras, añadió Greiner. "No sé si esto es reconfortante", dijo, "pero mi reacción para la gente que tiene miedo o es escéptica con respecto a la IA es tener miedo y ser escépticos con respecto a la IA, pero ser potencialmente más temerosos o escépticos con respecto a las decisiones humanas no guiadas". Añadió que debería estudiarse la forma en que el sistema de justicia penal utiliza actualmente la IA, así como las decisiones humanas no guiadas, para introducir mejoras.

Referencia de la noticia:

Eli Ben-Michael, et.al. Does AI help humans make better decisions? A methodological framework for experimental evaluation. 2024. arXiv.