Grandes modelos de linguagem representam um risco para a sociedade e precisam de regulamentação mais rigorosa, dizem pesquisadores de Oxford
Os principais especialistas em regulamentação e ética do Oxford Internet Institute identificaram um novo tipo de dano criado por LLMs que, segundo eles, representa riscos de longo prazo para sociedades democráticas e precisa...

Grandes modelos de linguagem representam um risco para a sociedade e precisam de regulamentação mais rigorosa, dizem pesquisadores de Oxford
Os principais especialistas em regulamentação e ética do Oxford Internet Institute identificaram um novo tipo de dano criado por LLMs que, segundo eles, representa riscos de longo prazo para sociedades democráticas e precisa ser abordado por meio da criação de um novo dever legal para provedores de LLM.
Em seu novo artigo 'Os grandes modelos de linguagem têm o dever legal de dizer a verdade? ', publicado pela Royal Society Open Science, os pesquisadores de Oxford expuseram como os LLMs produzem respostas que são plausíveis, úteis e confiantes, mas contêm imprecisões factuais, referências enganosas e informações tendenciosas. Eles denominam esse fenômeno problemático como 'discurso descuidado', que eles acreditam causar danos de longo prazo à ciência, educação e sociedade.
A autora principal , Professora Sandra Wachter , Professora de Tecnologia e Regulamentação do Oxford Internet Institute, explica: "LLMs representam um risco único para a ciência, educação, democracia e sociedade que as estruturas legais atuais não previram. Isso é o que chamamos de 'discurso descuidado' ou discurso que carece do cuidado apropriado com a verdade. A disseminação de discursos descuidados causa danos sutis e imateriais que são difíceis de medir ao longo do tempo. Isso leva à erosão da verdade, do conhecimento e da história compartilhada e pode ter consequências sérias para a formulação de políticas baseadas em evidências em áreas onde os detalhes e a verdade importam, como assistência médica, finanças, mudanças climáticas, mídia, profissão jurídica e educação. Em nosso novo artigo, pretendemos abordar essa lacuna analisando a viabilidade de criar um novo dever legal que exija que os provedores de LLM criem modelos de IA que, em termos simples, 'dirão a verdade'."
Esse fenômeno de "fala descuidada" é ainda mais complicado pelo feedback humano, que muitas vezes favorece resultados que se alinham com seus preconceitos pessoais, e anotações que treinam modelos para gerar "resultados que soam assertivos", entre outros fatores não relacionados ao avanço de resultados verdadeiros.
O professor associado e pesquisador associado Dr. Chris Russell , do Oxford Internet Institute, disse: "Embora os LLMs sejam criados para que usá-los pareça uma conversa com um assistente honesto e preciso, a semelhança é apenas superficial, e esses modelos não são projetados para fornecer respostas verdadeiras ou confiáveis. A aparente veracidade dos resultados é um 'feliz acidente estatístico' no qual não se pode confiar."
Para entender melhor as restrições legais enfrentadas ao usar LLMs, os pesquisadores realizaram uma análise abrangente, avaliando a existência de obrigações de dizer a verdade nas estruturas legais atuais, como a Lei de Inteligência Artificial, a Lei de Serviços Digitais, a Diretiva de Responsabilidade do Produto e a Diretiva de Responsabilidade da Inteligência Artificial. Eles descobriram que as obrigações legais atuais tendem a ser limitadas a setores, profissões ou instituições estatais específicas e raramente se aplicam ao setor privado.
Comentando sobre as descobertas, o Diretor de Pesquisa, Professor Associado Brent Mittelstadt disse: 'Regulamentações existentes fornecem mecanismos regulatórios fracos para mitigar discursos descuidados e só serão aplicáveis a provedores de LLM em uma gama muito limitada de casos. No entanto, em suas tentativas de eliminar 'alucinações' em LLMs, as empresas estão colocando barreiras e limitações significativas nesses modelos. Isso cria um risco substancial de centralizar ainda mais o poder em algumas grandes empresas de tecnologia para decidir quais tópicos são apropriados para discutir ou proibidos, quais fontes de informação são confiáveis e, finalmente, o que é verdade.'
Os acadêmicos de Oxford argumentam que os provedores de LLM devem alinhar melhor seus modelos com a verdade por meio de processos abertos e democráticos. Eles propõem a criação de um dever legal para os provedores de LLM criarem modelos que priorizem a veracidade dos resultados acima de outros fatores como persuasão, utilidade ou lucratividade. Entre outras coisas, isso significaria ser aberto sobre os dados de treinamento que eles usam e as limitações de seus modelos, explicando como eles ajustam os modelos por meio de práticas como aprendizado por reforço a partir de feedback humano ou restrições imediatas, e construindo funções de verificação de fatos e pontuação de confiança nos resultados.
O Professor Wachter conclui: 'Os incentivos atuais de governança focam em reduzir a responsabilidade de desenvolvedores e operadores e em maximizar o lucro, em vez de tornar a tecnologia mais verdadeira. Nossa abordagem proposta visa minimizar o risco de discurso descuidado e impacto social adverso de longo prazo, ao mesmo tempo em que redireciona o desenvolvimento para a governança pública da verdade em LLMs.'
Leia o artigo completo, 'Os grandes modelos de linguagem têm o dever legal de dizer a verdade ?', por Sandra Wachter, Brent Mittelstadt e Chris Russell, publicado pela Royal Science Open Science.