Cambridge concedeu € 1,9 milha£o para impedir que a IA minasse 'valores humanos essenciais'
O trabalho no Leverhulme Center for the Future of Intelligence tera¡ como objetivo evitar a incorporaça£o de desigualdades existentes osde gaªnero a classe e raça osem tecnologias emergentes.
Inteligaªncia artificial - Crédito: Getty Images
"As tecnologias de IA estãodeixando a porta aberta para a pseudociaªncia perigosa e hámuito desacreditada"
Stephen Cave
A inteligaªncia artificial estãotransformando a sociedade a medida que os algoritmos ditam cada vez mais o acesso a empregos e seguros, justia§a, tratamentos médicos, bem como nossas interações dia¡rias com amigos e familiares.Â
Amedida que essas tecnologias avana§am, estamos comea§ando a ver consequaªncias sociais não intencionais: algoritmos que promovem tudo, desde o preconceito racial na saúde atéa desinformação que corra³i a fénas democracias. Â
Pesquisadores do Leverhulme Center for the Future of Intelligence (LCFI) da Universidade de Cambridge receberam agora quase dois milhões de euros para construir uma melhor compreensão de como a IA pode minar os “valores humanos fundamentaisâ€.
A doação permitira¡ que a LCFI e seus parceiros trabalhem com a indústria de IA para desenvolver princapios de design antidiscriminata³rios que colocam a anãtica no centro do progresso tecnola³gico.Â
A equipe da LCFI criara¡ kits de ferramentas e treinamento para desenvolvedores de IA para evitar que as desigualdades estruturais existentes osde gaªnero a classe e raça ossejam incorporadas a tecnologia emergente e enviem essas injustia§as sociais para o hiperdrive.  Â
A doação, da fundação filantra³pica alema£ Stiftung Mercator, faz parte de um pacote de cerca de € 4 milhões que vera¡ a equipe de Cambridge osincluindo cientistas sociais e fila³sofos, bem como designers de tecnologia ostrabalhando com a Universidade de Bonn. Â
O novo projeto de pesquisa, “Desirable Digitalisation: Rethinking AI for Just and Sustainable Futuresâ€, surge no momento em que a Comissão Europeia negocia sua Lei de Inteligaªncia Artificial, que tem ambições de garantir que a IA se torne mais “confia¡vel†e “centrada no ser humanoâ€. A lei exigira¡ que os sistemas de IA sejam avaliados por seu impacto nos direitos e valores fundamentais.Â
“Ha¡ uma enorme lacuna de conhecimentoâ€, disse o Dr. Stephen Cave, Diretor da LCFI. “Ninguanãm sabe atualmente qual seráo impacto desses novos sistemas nos valores fundamentais, dos direitos democra¡ticos aos direitos das minorias, ou quais medidas ajudara£o a lidar com essas ameaa§as.â€Â
“Entender o impacto potencial dos algoritmos na dignidade humana significa ir além do ca³digo e aproveitar as lições da história e da ciência polaticaâ€, disse Cave.
A LCFI ganhou as manchetes no ano passado quando lançou o aºnico programa de mestrado do mundo dedicado ao ensino de anãtica em IA para profissionais do setor. Esta bolsa permitira¡ desenvolver novas linhas de investigação, como as investigações sobre a dignidade humana na “era digitalâ€. “As tecnologias de IA estãodeixando a porta aberta para a pseudociaªncia perigosa e hámuito desacreditadaâ€, disse Cave.Â
Ele aponta para um software de reconhecimento facial que afirma identificar “rostos criminososâ€, argumentando que tais afirmações são semelhantes a s ideias vitorianas de frenologia osque o cara¡ter de uma pessoa pode ser detectado pelo formato do cra¢nio ose o racismo cientafico associado. Â
O Dr. Kanta Dihal, que ira¡ coliderar o projeto, deve investigar quais vozes realmente moldam as visaµes da sociedade de um futuro com IA. “Atualmente, nossas ideias de IA em todo o mundo são evocadas por Hollywood e uma pequena elite ricaâ€, disse ela.Â
A equipe do LCFI incluira¡ os pesquisadores de Cambridge, Dr. Kerry Mackereth e Dr. Eleanor Drage, coanfitriaµes do podcast “ The Good Robot â€, que explora se podemos ou não ter 'boa' tecnologia e por que o feminismo éimportante no espaço tecnola³gico. Â
Mackereth estara¡ trabalhando em um projeto que explora a relação entre o racismo anti-asia¡tico e a IA, enquanto Drage analisara¡ o uso da IA ​​para recrutamento e gerenciamento da força de trabalho.Â
"As ferramentas de IA va£o revolucionar a contratação e moldar o futuro do trabalho no século 21. Agora que milhões de trabalhadores estãoexpostos a essas ferramentas, precisamos garantir que elas fazm justia§a a cada candidato e não perpetuem o racismo. pseudociaªncia das prática s de contratação do século 19â€, diz Drage.Â
“a‰ a³timo que os governos estejam agora tomando medidas para garantir que a IA seja desenvolvida com responsabilidadeâ€, disse Cave. “Mas a legislação não significara¡ muito a menos que realmente entendamos como essas tecnologias estãoimpactando os direitos e valores humanos fundamentais.â€