A inteligência artificial deveria ser usada para melhorar a tomada de decisões nos tribunais? De acordo com um novo documento de trabalho, não só um exemplo de algoritmo de IA não consegue melhorar a precisão das chamadas judiciais, como por si só a tecnologia se sai pior do que os humanos.
“Muitos pesquisadores se concentraram em saber se o algoritmo tem um viés ou se a IA tem um viés”, observou o coautor Kosuke Imai, professor de governo e estatística. “O que eles realmente não observaram é como o uso da IA afeta a decisão humana.”
Embora vários setores, incluindo a justiça criminal, a medicina e até mesmo os negócios, utilizem recomendações de IA, os seres humanos são normalmente os decisores finais. Os pesquisadores levaram isso em consideração ao comparar as decisões de fiança criminal tomadas por um único juiz com recomendações geradas por um sistema de IA. Analisou-se especificamente a influência da IA sobre se a fiança em dinheiro deveria ser imposta.
30%
— porcentagem de casos em que o juiz rejeitou as recomendações da AI
O ensaio clínico randomizado foi conduzido no condado de Dane, Wisconsin, com foco em saber se os presos foram libertados sob fiança ou sujeitos a fiança em dinheiro. Os pesquisadores - liderados por Imai e Jim Greiner , Honorável Professor S. William Green de Direito Público na Harvard Law School - estão de olho nas audiências realizadas por um único juiz durante um período de 30 meses, entre meados de 2017 e o final de 2019. Também foram analisados dados de prisões de réus até 24 meses depois.
Os resultados mostraram que a IA por si só teve um desempenho pior do que o juiz na previsão de reincidentes – neste caso, ao impor a restrição mais rigorosa da fiança em dinheiro. Ao mesmo tempo, pouca ou nenhuma diferença foi encontrada entre a precisão da tomada de decisão apenas por humanos e a tomada de decisão assistida por IA. O juiz foi contra as recomendações da IA em pouco mais de 30% dos casos.
“Fiquei surpreso com isso”, disse Greiner. “Dadas as evidências que citamos de que os algoritmos às vezes podem superar as decisões humanas, parecia que o que aconteceu foi que esse algoritmo foi definido para ser muito severo. Foi uma previsão exagerada de que os detidos se comportariam mal, prevendo que o fariam com demasiada frequência e, portanto, recomendando medidas demasiado duras.”
Este problema poderia ser resolvido recalibrando o algoritmo, argumentaram os professores.
“É muito mais fácil entender e consertar o algoritmo ou a IA do que o humano”, disse Imai. “É muito mais difícil mudar o ser humano ou entender por que os humanos tomam suas decisões.”
“A vantagem da IA ou de um algoritmo é que eles podem se tornar transparentes.”
Kosuke Imai
A IA estudada aqui não levou em conta especificamente a raça, concentrando-se na idade e em nove fatores relacionados à experiência criminal anterior. Imai, um especialista na utilização de modelos estatísticos para denunciar a manipulação racial, atribuiu as desigualdades relativas à fiança em dinheiro a uma variedade de fatores sociais, particularmente relacionados com o historial criminal.
Ele reconheceu que as conclusões do estudo podem ser motivo de preocupação, mas observou que as pessoas também são tendenciosas. “A vantagem da IA ou de um algoritmo é que eles podem se tornar transparentes”, disse ele. A chave é ter IA de código aberto que esteja prontamente disponível para avaliação e análise empírica.
A forma como o sistema de justiça criminal utiliza atualmente a IA, bem como as decisões humanas não orientadas, deve ser estudada com vista a fazer melhorias, acrescentou Greiner. “Não sei se isto é reconfortante”, disse ele, “mas a minha reação para as pessoas que têm medo ou são céticas em relação à IA é ter medo e ser cético em relação à IA, mas potencialmente ter mais medo ou cético em relação a decisões humanas não orientadas. ” Ele acrescentou que a forma como o sistema de justiça criminal está atualmente usando a IA, bem como as decisões humanas não guiadas, deve ser estudada para fazer melhorias.
Os outros coautores do artigo foram Eli Ben-Michael , professor assistente de estatística e ciência de dados na Carnegie Mellon University; Zhichao Jiang , professor de matemática na Universidade Sun Tay-sen, na China; Melody Huang, pesquisadora de pós-doutorado no Wojcicki Troper Harvard Data Science Institute, e Sooahn Shin , Ph.D. candidato ao governo na Escola de Pós-Graduação em Artes e Ciências Kenneth C. Griffin.