Humanidades

Onde a IA generativa encontra os direitos humanos
Especialistas em tecnologia, direito e direitos humanos debatem as implicações únicas desta tecnologia e como podemos direcionar melhor o seu potencial para beneficiar a humanidade.
Por Dylan Walsh - 10/04/2024


ISTOCK

Em novembro de 2022, a OpenAI lançou o ChatGPT. Menos de 18 meses depois, o tema da IA ??generativa domina quase todas as esferas da vida, públicas e privadas. Os legisladores falam sobre isso; os economistas falam sobre isso; cientistas sociais, pais, professores e investidores falam sobre isso.

Volker Türk – o Alto Comissário das Nações Unidas para os Direitos Humanos – também fala sobre isso. “Os impactos sem paralelo da IA avançada nos direitos humanos, incluindo a IA generativa, já estão a ser sentidos por um grande número de pessoas”, disse ele num debate recente sobre o assunto. Para garantir que os benefícios da IA fluam para todos, “as pessoas devem estar no centro da tecnologia”.

Türk fez  estas observações como orador principal no  Human Rights Dimensions of Generative AI, um evento de 14 de fevereiro organizado pelo Centro de Direitos Humanos e Justiça Internacional e copatrocinado pelo Stanford Institute for Human-Centered AI (HAI) e outros. Na sequência dos comentários de Türk, um painel de especialistas que representam os setores público e privado e o meio académico debateu as implicações da IA ??generativa para os direitos humanos, a função democrática e a coesão social geral. O grupo incluiu:

  • Eileen Donahoe, Enviada Especial e Coordenadora para Liberdade Digital no Departamento de Ciberespaço e Política Digital do Departamento de Estado dos EUA;
  • Alex Walden, chefe global de direitos humanos do Google;
  • Peggy Hicks, Diretora da Divisão de Envolvimento Temático, Procedimentos Especiais e Direito ao Desenvolvimento do Escritório de Direitos Humanos da ONU; 
  • Nate Persily , codiretor do Stanford Cyber ??Policy Center e professor de direito James B. McClatchy na Stanford Law School; e
  • Raffi Krikorian, Diretor de Tecnologia do Emerson Collective.

Abaixo estão alguns destaques da conversa.

Por que a IA é diferente

Embora algumas das preocupações sobre a IA sejam convencionais – pode promover a desinformação ou invadir a privacidade – existem várias formas pelas quais os desafios que apresenta não são familiares ao mundo político.

Por um lado, a IA é o que Persily chama de tecnologia fundamental. “Está se tornando fundamental para todas as outras tecnologias, o que o torna diferente”, disse ele. “Já está em toda parte e continuará a estar em toda parte. Está regulando todo o futuro da nossa economia e das relações sociais.” É também mais opaco do que outras tecnologias e as suas aplicações são muito mais difíceis de prever. Por exemplo, Persily disse que a equipe da OpenAI, quando lançou o ChatGPT, não imaginava seu uso na codificação. “Mais da metade dos usos agora são para codificação”, disse ele.

Walden, do Google, destacou a nova velocidade e escala em que a IA funciona, bem como sua capacidade de aprender e se adaptar. Embora plataformas como o Google conversem há muito tempo com os legisladores sobre como regular o conteúdo, ela disse: “A IA torna tudo isso muito mais complicado”. 

Finalmente, muitos dos algoritmos fundamentais da IA são de código aberto. Isto é fundamental para tornar as ferramentas acessíveis para além da propriedade intelectual corporativa, mas também é problemático. No primeiro ano de lançamento do ChatGPT, por exemplo, houve uma explosão de pornografia infantil gerada por IA – resultado do facto de estas ferramentas estarem disponíveis gratuitamente.

“De certa forma, o aspecto mais democraticamente amigável desta tecnologia também representa o maior risco”, disse Persily.

Algumas preocupações graves

Todos os participantes do painel expressaram preocupação sobre como a IA será – e já está sendo – usada; três dessas preocupações ecoaram na conversa.

Em primeiro lugar, tanto Krikorian como Donahoe observaram como a rápida evolução das diferentes ferramentas de IA torna praticamente impossível para o público ou para os decisores políticos acompanharem. “Há uma grande discrepância entre o desenvolvimento e a absorção desta tecnologia”, disse Krikorian. “Em muitos aspectos, isso significa apenas que estamos jogando gasolina em todos os outros problemas.” Antes de conseguirmos resolver o problema crescente da desinformação online, por exemplo, a IA está a acelerar a sua disseminação.

Em segundo lugar, Hicks observou que, embora a ONU tenha apelado a uma pausa na utilização da IA em áreas onde é mais provável a ocorrência de violações dos direitos humanos, estes são precisamente os domínios onde os avanços parecem estar a avançar mais rapidamente. Estão a ser criadas exclusões legais para setores como a segurança nacional e a aplicação da lei, onde os profissionais dos direitos humanos há muito que concentram as suas energias, muitas vezes com poucos resultados.

“Temos expressado essas preocupações muito antes da IA generativa”, disse Hicks. “E ainda não fizemos progresso nessa frente.”

Finalmente, Persily sugeriu que o problema crescente da desinformação poderia levar as pessoas não apenas a acreditar em falsidades, mas, o que é mais preocupante, a descrer do que é verdade. “A difusão do conteúdo artificial dá credibilidade a todos aqueles que querem dividir a realidade”, disse ele. “Quanto mais desconfiarmos das evidências diante de nossos olhos, maior será o poder dos mentirosos de dizer o que é ou não verdade.”

Reflexões sobre Regulamentação

A discussão sobre como regular de forma eficaz e justa a IA generativa girou em torno de alguns pontos centrais:

  • A ONU, através da sua  iniciativa B-Tech , criou um quadro através do qual as empresas tecnológicas podem incorporar considerações de direitos humanos no trabalho que realizam. Esta iniciativa abordou recentemente o caso específico da IA generativa. “O único conjunto transversal de leis que temos em vigor para enfrentar estes desafios colossais”, disse Türk, “é o quadro internacional de direitos humanos”.
  • Uma solução regulamentar deve basear-se numa ampla participação. “Uma das grandes preocupações que temos é que estas conversas parecem estar a ocorrer com demasiado foco no Norte global e nos ambientes de língua inglesa”, disse Hicks. Os problemas potenciais, destacou Donahoe, são inerentemente transnacionais e, como tal, as soluções devem ser elaboradas de forma inclusiva.
  • O máximo de transparência possível deve ser incorporado a essas ferramentas. Talvez nunca seja possível compreender completamente a função de um modelo – por que seus resultados são o que são – mas certas verificações poderiam delinear antecipadamente as capacidades do modelo.
  • A discussão em torno de políticas e regulamentação deve abranger nuances. Hicks sugeriu que a maior parte da discussão sobre IA hoje é altamente polarizada: um produto é bom ou ruim; destruirá o mundo ou o salvará; o setor privado é o problema ou o governo é o problema. “Temos que encontrar maneiras de participar das duas conversas ao mesmo tempo”, disse ela.
Quando a discussão chegou ao fim, Donahoe pediu a cada um dos quatro participantes do painel que respondesse se estavam, em geral, mais optimistas ou pessimistas sobre um futuro com IA generativa. Os painelistas estavam universalmente esperançosos – mas, poder-se-ia dizer, de forma reservada.

“Estou optimista em relação à tecnologia, mas devo dizer que estou pessimista em relação à sociedade neste momento”, foi como Persily disse, questionando a nossa capacidade de chegar efetivamente a um consenso sobre como governar as muitas ameaças no horizonte. “Se ao menos a IA tivesse tido este momento há 30 anos ou se pudéssemos lidar com isso depois de lidarmos primeiro com as nossas divisões sociais.”

 

.
.

Leia mais a seguir