Humanidades

Cambridge concedeu € 1,9 milha£o para impedir que a IA minasse 'valores humanos essenciais'
O trabalho no Leverhulme Center for the Future of Intelligence tera¡ como objetivo evitar a incorporaça£o de desigualdades existentes osde gaªnero a classe e raça osem tecnologias emergentes.
Por Fred Lewsey - 12/02/2022


Inteligaªncia artificial - Crédito: Getty Images



"As tecnologias de IA estãodeixando a porta aberta para a pseudociaªncia perigosa e hámuito desacreditada"

Stephen Cave

A inteligaªncia artificial estãotransformando a sociedade a  medida que os algoritmos ditam cada vez mais o acesso a empregos e seguros, justia§a, tratamentos médicos, bem como nossas interações dia¡rias com amigos e familiares. 

Amedida que essas tecnologias avana§am, estamos comea§ando a ver consequaªncias sociais não intencionais: algoritmos que promovem tudo, desde o preconceito racial na saúde atéa desinformação que corra³i a fénas democracias.   

Pesquisadores do Leverhulme Center for the Future of Intelligence (LCFI) da Universidade de Cambridge receberam agora quase dois milhões de euros para construir uma melhor compreensão de como a IA pode minar os “valores humanos fundamentais”.

A doação permitira¡ que a LCFI e seus parceiros trabalhem com a indústria de IA para desenvolver princa­pios de design antidiscriminata³rios que colocam a anãtica no centro do progresso tecnola³gico. 

A equipe da LCFI criara¡ kits de ferramentas e treinamento para desenvolvedores de IA para evitar que as desigualdades estruturais existentes osde gaªnero a classe e raça ossejam incorporadas a  tecnologia emergente e enviem essas injustia§as sociais para o hiperdrive.     

A doação, da fundação filantra³pica alema£ Stiftung Mercator, faz parte de um pacote de cerca de € 4 milhões que vera¡ a equipe de Cambridge osincluindo cientistas sociais e fila³sofos, bem como designers de tecnologia ostrabalhando com a Universidade de Bonn.   

O novo projeto de pesquisa, “Desirable Digitalisation: Rethinking AI for Just and Sustainable Futures”, surge no momento em que a Comissão Europeia negocia sua Lei de Inteligaªncia Artificial, que tem ambições de garantir que a IA se torne mais “confia¡vel” e “centrada no ser humano”. A lei exigira¡ que os sistemas de IA sejam avaliados por seu impacto nos direitos e valores fundamentais. 

“Ha¡ uma enorme lacuna de conhecimento”, disse o Dr. Stephen Cave, Diretor da LCFI. “Ninguanãm sabe atualmente qual seráo impacto desses novos sistemas nos valores fundamentais, dos direitos democra¡ticos aos direitos das minorias, ou quais medidas ajudara£o a lidar com essas ameaa§as.” 

“Entender o impacto potencial dos algoritmos na dignidade humana significa ir além do ca³digo e aproveitar as lições da história e da ciência pola­tica”, disse Cave.

A LCFI ganhou as manchetes no ano passado quando lançou o aºnico programa de mestrado do mundo dedicado ao ensino de anãtica em IA para profissionais do setor. Esta bolsa permitira¡ desenvolver novas linhas de investigação, como as investigações sobre a dignidade humana na “era digital”. “As tecnologias de IA estãodeixando a porta aberta para a pseudociaªncia perigosa e hámuito desacreditada”, disse Cave. 

Ele aponta para um software de reconhecimento facial que afirma identificar “rostos criminosos”, argumentando que tais afirmações são semelhantes a s ideias vitorianas de frenologia osque o cara¡ter de uma pessoa pode ser detectado pelo formato do cra¢nio ose o racismo cienta­fico associado.  

O Dr. Kanta Dihal, que ira¡ coliderar o projeto, deve investigar quais vozes realmente moldam as visaµes da sociedade de um futuro com IA. “Atualmente, nossas ideias de IA em todo o mundo são evocadas por Hollywood e uma pequena elite rica”, disse ela. 

A equipe do LCFI incluira¡ os pesquisadores de Cambridge, Dr. Kerry Mackereth e Dr. Eleanor Drage, coanfitriaµes do podcast “ The Good Robot ”, que explora se podemos ou não ter 'boa' tecnologia e por que o feminismo éimportante no espaço tecnola³gico.  

Mackereth estara¡ trabalhando em um projeto que explora a relação entre o racismo anti-asia¡tico e a IA, enquanto Drage analisara¡ o uso da IA ​​para recrutamento e gerenciamento da força de trabalho. 

"As ferramentas de IA va£o revolucionar a contratação e moldar o futuro do trabalho no século 21. Agora que milhões de trabalhadores estãoexpostos a essas ferramentas, precisamos garantir que elas fazm justia§a a cada candidato e não perpetuem o racismo. pseudociaªncia das prática s de contratação do século 19”, diz Drage. 

“a‰ a³timo que os governos estejam agora tomando medidas para garantir que a IA seja desenvolvida com responsabilidade”, disse Cave. “Mas a legislação não significara¡ muito a menos que realmente entendamos como essas tecnologias estãoimpactando os direitos e valores humanos fundamentais.”

 

.
.

Leia mais a seguir