Tecnologia Científica

Uma maneira de governar o uso ético da inteligência artificial sem impedir o avanço
Os pesquisadores da Escola de Saúde Pública da Texas A&M University estão desenvolvendo um novo modelo de governança para orientação e aplicação ética no campo de rápido avanço da inteligência artificial (IA).
Por Rae Lynn Mitchell, - 19/02/2023


Pixabay

Os pesquisadores da Escola de Saúde Pública da Texas A&M University estão desenvolvendo um novo modelo de governança para orientação e aplicação ética no campo de rápido avanço da inteligência artificial (IA). Conhecido como Copyleft AI with Trusted Enforcement, ou CAITE, os pesquisadores acreditam que esse modelo protegerá contra os danos potenciais da IA ??sem impedir os avanços tecnológicos.

Cason Schmit, JD, professor assistente da Escola de Saúde Pública e diretor do Programa de Direito e Política de Saúde, Megan Doerr da Sage Bionetworks e Jennifer Wager, JD, da Penn State discutem seu novo modelo em um artigo recente na revista Science .

A inteligência artificial (IA) promete revolucionar quase todos os aspectos de nossas vidas diárias. No entanto, o uso indevido de ferramentas baseadas em IA pode causar danos, especialmente a comunidades que já enfrentam desigualdade e discriminação. Esse potencial de dano exige orientação ética por meio de regulamentação e política. Mas o rápido avanço da IA ??e a natureza muitas vezes inflexível da regulamentação governamental tornaram desafiadora a criação de tal orientação ética.

Schmit, Doerr e Wager desenvolveram o modelo CAITE para enfrentar esses desafios. A CAITE combina aspectos do licenciamento copyleft e o modelo patente-troll, dois métodos de gerenciamento de direitos de propriedade intelectual que podem ser considerados conflitantes entre si.

O licenciamento copyleft permite o compartilhamento de propriedade intelectual sob condições como atribuição do criador original ou uso não comercial, e os trabalhos derivados devem usar os mesmos termos de licença do original. As licenças Creative Commons são um tipo de licenciamento copyleft. No entanto, os esquemas de licenciamento copyleft geralmente têm pouco poder de execução.

O outro lado do modelo CAITE usa a abordagem de patente troll, que usa direitos de execução para garantir a conformidade. Um troll de patente é uma organização que possui direitos de propriedade intelectual e processa outras pessoas em tribunal como forma de gerar receita, em vez de criar ou licenciar tecnologia.

O modelo CAITE é construído sobre uma licença de uso ético. Essa licença restringiria certos usos antiéticos de IA e exigiria que os usuários obedecessem a um código de conduta. É importante ressaltar que ele usaria uma abordagem de copyleft para garantir que os desenvolvedores que criam modelos e dados derivados também usem os mesmos termos de licença dos trabalhos principais. A licença atribuiria os direitos de execução da licença a um terceiro designado conhecido como host CAITE. Dessa forma, os direitos de execução de todas essas licenças de uso ético seriam agrupados em uma única organização, capacitando o host do CAITE como um regulador quase governamental da IA.

"Esta abordagem combina o melhor dos dois mundos: um modelo que é tão rápido e flexível quanto a indústria, mas com poder de fiscalização e poder de um regulador tradicional do governo", disse Schmit.

Os autores observam que o uso de uma parte não governamental designada pela comunidade de desenvolvedores de IA pode permitir maior flexibilidade na aplicação e confiança na supervisão. Os hosts do CAITE podem definir consequências para ações antiéticas, como penalidades financeiras ou denúncias de casos de violação da lei de proteção ao consumidor.

Ao mesmo tempo, a abordagem do CAITE permite políticas de clemência que podem promover a autodeclaração e oferece flexibilidade que os esquemas típicos de fiscalização do governo muitas vezes carecem. Por exemplo, incentivos para usuários de IA relatarem vieses que descobrirem em seus modelos de IA podem permitir que o host CAITE avise outros usuários de IA que estão confiando nesses modelos de IA potencialmente perigosos.

Schmit e seus colegas apontam que a abordagem CAITE, embora flexível, exigirá a participação de uma grande parte da comunidade de IA. Além disso, a implementação piloto de políticas éticas construídas usando a abordagem CAITE exigirá mais pesquisas e financiamento. A implementação desse modelo também contará com membros da comunidade de IA de diversas disciplinas para desenvolver seus recursos e superar os desafios que surgirem.

Embora exija a adesão significativa da comunidade e, possivelmente, incentivos do governo, Schmit e seus colegas afirmam que a indústria provavelmente preferirá a estrutura CAITE mais flexível aos regulamentos rigorosos e de adaptação lenta que os governos podem eventualmente impor.

“Os esforços para promover uma IA ética e confiável devem ir além do que é legalmente exigido como base para uma conduta aceitável”, disse Wagner. “Podemos e devemos nos esforçar para fazer melhor do que o minimamente aceitável”.

Uma vez implementado, o CAITE protegerá contra os danos potenciais da IA ??sem impedir os avanços tecnológicos. Os pesquisadores dizem que, à medida que a IA continua a se expandir em nossas vidas diárias, o valor de uma estrutura ética responsiva se tornará crucial.


Mais informações: CD Schmit et al, Alavancando IP para governança de IA, Science (2023). DOI: 10.1126/science.add2202

Informações da revista: Science 

 

.
.

Leia mais a seguir