Direcione políticas para ‘hardware’ para garantir a segurança da IA, dizem especialistas
Os chips e os datacenters – a 'computação' que impulsiona a revolução da IA – podem ser os alvos mais eficazes para políticas de IA de redução de riscos , uma vez que têm de ser possuídos fisicamente, de acordo com um novo relatório.
Getty
Um registo global que rastreie o fluxo de chips destinados a supercomputadores de IA é uma das opções políticas destacadas por um novo relatório importante que apela à regulamentação da “computação” – o hardware que sustenta toda a IA – para ajudar a prevenir o uso indevido e desastres da inteligência artificial.
Outras propostas técnicas apresentadas pelo relatório incluem “limites de computação” – limites integrados ao número de chips aos quais cada chip de IA pode se conectar – e a distribuição de um “interruptor de partida” para treinamento de IA entre várias partes, para permitir um veto digital de atividades arriscadas. IA antes de se alimentar de dados.
Os investigadores argumentam que os chips e datacenters de IA oferecem alvos mais eficazes para o escrutínio e a governação da segurança da IA, uma vez que estes ativos têm de ser possuídos fisicamente, enquanto os outros elementos da “tríade da IA” – dados e algoritmos – podem, em teoria, ser infinitamente duplicados e disseminado.
Os especialistas salientam que os poderosos chips de computação necessários para impulsionar modelos generativos de IA são construídos através de cadeias de abastecimento altamente concentradas, dominadas por apenas um punhado de empresas – tornando o próprio hardware um forte ponto de intervenção para políticas de IA de redução de riscos.
O relatório é de autoria de dezenove especialistas e coliderado por três institutos da Universidade de Cambridge – o Centro Leverhulme para o Futuro da Inteligência (LCFI), o Centro para o Estudo do Risco Existencial (CSER) e o Instituto Bennett de Políticas Públicas – juntamente com com OpenAI e o Centro para a Governança de IA.
“A inteligência artificial fez progressos surpreendentes na última década, muitos dos quais foram possibilitados pelo aumento acentuado no poder computacional aplicado aos algoritmos de treino”, disse Haydn Belfield, coautor principal do relatório do LCFI de Cambridge.
“Os governos estão, com razão, preocupados com as potenciais consequências da IA e a analisar como regular a tecnologia, mas os dados e algoritmos são intangíveis e difíceis de controlar.
“Os supercomputadores de IA consistem em dezenas de milhares de chips de IA em rede hospedados em centros de dados gigantes, muitas vezes do tamanho de vários campos de futebol, consumindo dezenas de megawatts de energia”, disse Belfield.
“O hardware de computação é visível, quantificável e sua natureza física significa que restrições podem ser impostas de uma forma que em breve poderá ser quase impossível com mais elementos virtuais de IA.”
Os maiores modelos de IA utilizam agora 350 milhões de vezes mais computação
do que há treze anos, dizem os especialistas.
O poder computacional por trás da IA cresceu exponencialmente desde que a “era do aprendizado profundo” começou para valer, com a quantidade de “computação” usada para treinar os maiores modelos de IA dobrando a cada seis meses desde 2010. Os maiores modelos de IA agora usam 350 milhões. vezes mais computação do que há treze anos.
Os esforços governamentais em todo o mundo durante o ano passado – incluindo a Ordem Executiva dos EUA sobre IA, a Lei de IA da UE, o Regulamento de IA Generativa da China e o Instituto de Segurança de IA do Reino Unido – começaram a concentrar-se na computação ao considerar a governação da IA.
Fora da China, o mercado de computação em nuvem é dominado por três empresas, denominadas “hyperscalers”: Amazon, Microsoft e Google.
“Monitorar o hardware ajudaria muito as autoridades de concorrência a manterem sob controle o poder de mercado das maiores empresas de tecnologia, abrindo assim espaço para mais inovação e novos participantes”, disse a coautora Prof. Diane Coyle, do Instituto Bennett de Cambridge.
“Aqueles que procuram estabelecer regulamentação da IA devem olhar para cima para a computação, a fonte do poder que impulsiona a revolução da IA”
Haydn Belfield
O relatório fornece “esboços” de possíveis direções para a governação computacional, destacando a analogia entre a formação em IA e o enriquecimento de urânio.
“A regulamentação internacional dos fornecimentos nucleares centra-se num contributo vital que tem de passar por um processo longo, difícil e dispendioso”, disse Belfield. “O foco na computação permitiria que a regulamentação da IA fizesse o mesmo.”
As ideias políticas estão divididas em três campos: aumentar a visibilidade global da computação de IA; alocar recursos computacionais para o maior benefício para a sociedade; impor restrições ao poder de computação.
Por exemplo, um registo internacional de chips de IA auditado regularmente, exigindo que os produtores, vendedores e revendedores de chips reportem todas as transferências, forneceria informações precisas sobre a quantidade de computação possuída por nações e empresas num determinado momento.
O relatório ainda sugere que um identificador exclusivo poderia ser adicionado a cada chip para evitar espionagem industrial e “contrabando de chips”.
“Os governos já monitorizam muitas transações económicas, por isso faz sentido aumentar a monitorização de uma mercadoria tão rara e poderosa como um chip de IA avançado”, disse Belfield. No entanto, a equipe ressalta que tais abordagens podem levar a um mercado negro de “chips fantasmas” não rastreáveis.
Outras sugestões para aumentar a visibilidade – e a responsabilização – incluem relatórios de formação em IA em grande escala por fornecedores de computação em nuvem e “monitorização da carga de trabalho” que preserva a privacidade para ajudar a evitar uma corrida armamentista se investimentos massivos em computação forem feitos sem transparência suficiente.
“Os usuários da computação se envolverão em uma mistura de atividades benéficas, benignas e prejudiciais, e determinados grupos encontrarão maneiras de contornar as restrições”, disse Belfield.
“Os reguladores precisarão criar freios e contrapesos que impeçam o uso malicioso ou equivocado da computação de IA.”
Isso pode incluir limites físicos para redes chip a chip ou tecnologia criptográfica que permite a desativação remota de chips de IA em circunstâncias extremas.
Uma abordagem sugerida exigiria o consentimento de múltiplas partes para desbloquear a computação de IA para execuções de treino particularmente arriscadas, um mecanismo familiar às armas nucleares.
As políticas de mitigação de riscos de IA podem dar prioridade à computação para pesquisas com maior probabilidade de beneficiar a sociedade – desde energia verde até saúde e educação. Isto poderia até assumir a forma de grandes “megaprojetos” internacionais de IA que abordam questões globais reunindo recursos computacionais.
Os autores do relatório deixam claro que as suas sugestões políticas são “exploratórias” e não propostas completas e que todas elas acarretam potenciais desvantagens, desde riscos de fugas de dados proprietários até impactos econômicos negativos e o entrave ao desenvolvimento positivo da IA.
Eles oferecem cinco considerações para regular a IA por meio da computação, incluindo a exclusão da computação de pequena escala e sem IA, a revisão regular dos limites de computação e o foco na preservação da privacidade.
Belfield acrescentou: “Tentar governar os modelos de IA à medida que são implantados pode ser inútil, como perseguir sombras. Aqueles que procuram estabelecer regulamentação sobre a IA devem olhar a montante para a computação, a fonte do poder que impulsiona a revolução da IA.
“Se a computação permanecer desgovernada, isso representará graves riscos para a sociedade.”
O relatório Computing Power and the Governance of Artificial Intelligence já foi publicado.