Humanidades

Ainda é muito cedo para usar inteligência artificial para justiça criminal, afirma novo artigo
A inteligência artificial está pronta para remodelar nosso mundo de inúmeras maneiras e em quase todos os campos. Isso inclui o sistema de justiça criminal. A tomada de decisão baseada em algoritmos e orientada por dados está sendo cada vez...
Por Patrick Lejtenyi - 22/11/2022


Domínio público

A inteligência artificial está pronta para remodelar nosso mundo de inúmeras maneiras e em quase todos os campos. Isso inclui o sistema de justiça criminal. A tomada de decisão baseada em algoritmos e orientada por dados está sendo cada vez mais usada em avaliações de risco pré-julgamento nos Estados Unidos como uma ferramenta para calcular o risco de reincidência do réu. Os proponentes argumentam que isso remove o viés inerente presente nas figuras da justiça criminal, como policiais, juízes ou promotores.

No entanto, um novo artigo de Concordia Ph.D. estudante e advogada de defesa criminal Neha Chugh questiona essa afirmação. Nele, Chugh argumenta que as avaliações de risco da IA, embora ainda não sejam usadas nos tribunais canadenses, levantam várias bandeiras vermelhas que o sistema de justiça precisa abordar. Ela diz que os réus indígenas, que já estão super-representados no sistema de justiça criminal , são especialmente vulneráveis ??às deficiências da ferramenta.

Escrevendo na revista IEEE Technology and Society , Chugh aponta para o caso histórico Ewert v. Canadá como um exemplo dos problemas colocados pelas ferramentas de avaliação de risco em geral. Jeffrey Ewert é um homem Métis cumprindo uma sentença de prisão perpétua por assassinato e tentativa de homicídio. Ele argumentou com sucesso perante a Suprema Corte do Canadá que os testes usados ??pelos Serviços de Correção do Canadá são culturalmente tendenciosos contra os presos indígenas, mantendo-os na prisão por mais tempo e em condições mais restritivas do que os presos não indígenas.

"Ewert nos diz que a tomada de decisão baseada em dados precisa de uma análise das informações que chegam - e da contribuição das ciências sociais para as informações que chegam - e como os vieses estão afetando as informações que saem", diz Chugh.

“Se sabemos que a discriminação sistêmica está assolando nossas comunidades e desinformando nossos dados policiais, como podemos ter certeza de que os dados que informam esses algoritmos produzirão os resultados corretos?”

Subjetividade é necessária

Usar IA para conduzir avaliações de risco, diz ela, simplesmente transferiria preconceitos de humanos para algoritmos criados por humanos. Entrada de dados ruins leva a saída de dados ruins. “Os defensores do uso da IA ??dessa maneira estão transferindo a responsabilidade para os projetistas do algoritmo”.

Chugh aponta que a IA já está sendo considerada para uso em alguns tribunais canadenses. Como membro do Conselho de Governadores da Comissão Jurídica de Ontário, ela admite reservas sobre as formas como a comissão considerou o uso da IA ??para assuntos como processos judiciais administrativos ou pela polícia como ferramentas investigativas.

Uma das principais questões que Chugh identifica com o excesso de confiança na IA para avaliações de risco e outras considerações é a ausência de discrição subjetiva e deferência. Esses, ela observa, são pilares fundamentais de um judiciário independente. Leis e estatutos fornecem parâmetros dentro dos quais os juízes podem operar e deixá-los com alguma margem de manobra enquanto consideram fatores relevantes como histórias e circunstâncias individuais.

"Acredito firmemente na orientação de nossos tribunais, de que a sentença e a fiança são processos individualizados e conduzidos pela comunidade", diz ela.

"Nomeamos nossos juízes e tomadores de decisão com base em seu conhecimento da comunidade. Precisamos terceirizar essa tomada de decisão para um sistema amplo e generalizado? Ou queremos contar com um sistema em que estamos tendo conversas individualizadas com ofensores? Prefiro o último porque acredito que os tribunais podem ter um grande impacto sobre os indivíduos."

Chugh insiste que não é totalmente contra o uso de IA no sistema judicial , apenas que acredita que mais pesquisas são necessárias.

"Já chegamos? Na minha opinião, não. Mas se eu puder provar que estou errado, eu seria o primeiro a mudar de ideia."


Mais informações: Neha Chugh, Risk Assessment Tools on Trial: AI Systems Go?, IEEE Technology and Society Magazine (2022). DOI: 10.1109/MTS.2022.3197123

 

.
.

Leia mais a seguir