Pesquisadores de Oxford, Cambridge, Universidade de Copenhague, Universidade Nacional de Cingapura e outras instituições importantes elaboraram diretrizes éticas com base filosófica para o uso de Grandes Modelos de Linguagem na escrita acadêmica.
Nova estrutura ética para ajudar a navegar o uso de IA em pesquisa acadêmica. Crédito Getty, Igor Kutyaev.
À medida que os Large Language Models (LLMs) se tornam mais prevalentes e fáceis de acessar, acadêmicos em todo o mundo estão usando sua assistência para a escrita de manuscritos acadêmicos, em particular desenvolvendo ideias e conteúdo. No entanto, várias preocupações surgem de sua natureza probabilística relacionada ao plágio, atribuição de autoria e integridade da academia como um todo. À medida que as ferramentas de IA se tornam cada vez mais sofisticadas, diretrizes éticas claras são, portanto, cruciais para manter a qualidade e a credibilidade do trabalho acadêmico.
A nova pesquisa, publicada na Nature Machine Intelligence , descreve três critérios essenciais que maximizam os impactos benéficos dos LLMs no avanço científico e na equidade acadêmica:
- Verificação humana e garantia de precisão e integridade
- Garantir contribuição humana substancial para o trabalho
- Reconhecimento apropriado e transparência do uso do LLM.
Os autores definem um modelo de Reconhecimento de Uso de LLM, que os pesquisadores podem utilizar ao enviar manuscritos. Esta ferramenta prática simplificará a adesão aos padrões éticos na escrita acadêmica assistida por IA e fornecerá maior transparência sobre o uso de LLM.
Falando sobre as diretrizes, o coautor, Professor Julian Savulescu , do The Uehiro Oxford Institute , disse: 'Large Language Models são a Caixa de Pandora para a pesquisa acadêmica. Eles podem eliminar a independência acadêmica, a criatividade, a originalidade e o próprio pensamento. Mas eles também podem facilitar a cocriação e a produtividade inimagináveis. Essas diretrizes são os primeiros passos para usar LLMs de forma responsável e ética na escrita e pesquisa acadêmica.'
Esta publicação marca um passo crucial no gerenciamento do relacionamento entre o trabalho acadêmico humano e a inteligência da máquina. Ao capacitar pesquisadores para alavancar a tecnologia de IA de forma ética, eles visam impulsionar a produtividade e a inovação, preservando a integridade acadêmica.
O coautor, Dr. Brian Earp , do The Uehiro Oxford Institute, disse: 'É apropriado e necessário ser extremamente cauteloso quando confrontado com novas possibilidades tecnológicas, incluindo a capacidade de escritores humanos de cocriar material acadêmico usando IA generativa. Isso é especialmente verdadeiro quando as coisas estão aumentando e se movendo rapidamente. Mas as diretrizes éticas não são apenas sobre reduzir riscos; elas também são sobre maximizar benefícios potenciais.'
O professor Timo Minssen da Universidade de Copenhague disse: 'A orientação é essencial para moldar o uso ético da IA na pesquisa acadêmica, e em particular no que diz respeito à cocriação de artigos acadêmicos com LLMs. O reconhecimento apropriado com base nos princípios da ética da pesquisa deve garantir transparência, integridade ética e atribuição adequada. Idealmente, isso promoverá um ambiente colaborativo e mais inclusivo, onde a engenhosidade humana e a inteligência da máquina podem aprimorar o discurso acadêmico.'
Esta nova pesquisa apresenta oportunidades para comunidades acadêmicas em todo o mundo e pode ser usada em todas as disciplinas acadêmicas.
O artigo 'Diretrizes para uso ético e reconhecimento de grandes modelos de linguagem na escrita acadêmica' foi publicado na Nature Machine Intelligence .