Tecnologia Científica

Paradoxos matema¡ticos demonstram os limites da IA
Os pesquisadores mostram que existem problemas onde existem redes neurais esta¡veis ​​e precisas , mas nenhum algoritmo pode produzir tal rede . Somente em casos específicos os algoritmos podem computar redes neurais esta¡veis ​​e precisas.
Por Universidade de Cambridge - 17/03/2022


Doma­nio paºblico

Os humanos geralmente são muito bons em reconhecer quando erram, mas os sistemas de inteligaªncia artificial não são. De acordo com um novo estudo, a IA geralmente sofre de limitações inerentes devido a um paradoxo matema¡tico centena¡rio.

Como algumas pessoas, os sistemas de IA geralmente tem um grau de confianção que excede em muito suas habilidades reais. E como uma pessoa superconfiante, muitos sistemas de IA não sabem quando estãocometendo erros. a€s vezes, éainda mais difa­cil para um sistema de IA perceber quando estãocometendo um erro do que produzir um resultado correto.

Pesquisadores da Universidade de Cambridge e da Universidade de Oslo dizem que a instabilidade éo calcanhar de Aquiles da IA ​​moderna e que um paradoxo matema¡tico mostra as limitações da IA. As redes neurais, a ferramenta de última geração em IA, imitam aproximadamente as ligações entre os neura´nios no cérebro. Os pesquisadores mostram que existem problemas onde existem redes neurais esta¡veis ​​e precisas , mas nenhum algoritmo pode produzir tal rede . Somente em casos específicos os algoritmos podem computar redes neurais esta¡veis ​​e precisas.

Os pesquisadores propaµem uma teoria de classificação que descreve quando as redes neurais podem ser treinadas para fornecer um sistema de IA confia¡vel sob certas condições especa­ficas. Seus resultados são relatados no Proceedings of the National Academy of Sciences .

O aprendizado profundo, a principal tecnologia de IA para reconhecimento de padraµes, tem sido objeto de inaºmeras manchetes de tirar o fa´lego. Exemplos incluem o diagnóstico de doenças com mais precisão do que os médicos ou a prevenção de acidentes rodovia¡rios atravanãs da condução auta³noma. No entanto, muitos sistemas de aprendizado profundo não são confia¡veis ​​e fa¡ceis de enganar.

"Muitos sistemas de IA são insta¡veis ​​e estãose tornando um grande risco, especialmente porque são cada vez mais usados ​​em áreas de alto risco, como diagnóstico de doenças ou vea­culos auta´nomos", disse o coautor Professor Anders Hansen, do Departamento de Matema¡tica Aplicada e Fa­sica Tea³rica de Cambridge. . “Se os sistemas de IA são usados ​​em áreas onde podem causar danos reais se derem errado, a confianção nesses sistemas deve ser a principal prioridade”.

O paradoxo identificado pelos pesquisadores remonta a dois gigantes matema¡ticos do século 20: Alan Turing e Kurt Ga¶del . No ini­cio do século 20 , os matema¡ticos tentaram justificar a matemática como a última linguagem consistente da ciência No entanto, Turing e Ga¶del mostraram um paradoxo no coração da matemática: éimpossí­vel provar se certas afirmações matemáticas são verdadeiras ou falsas, e alguns problemas computacionais não podem ser resolvidos com algoritmos. E, sempre que um sistema matema¡tico érico o suficiente para descrever a aritmanãtica que aprendemos na escola, ele não pode provar sua própria consistaªncia.
 
Danãcadas depois, o matema¡tico Steve Smale propa´s uma lista de 18 problemas matema¡ticos não resolvidos para o século XXI . O 18º problema dizia respeito aos limites da inteligaªncia tanto para humanos quanto para ma¡quinas.

"O paradoxo identificado pela primeira vez por Turing e Ga¶del agora foi trazido para o mundo da IA ​​por Smale e outros", disse o coautor Dr. Matthew Colbrook do Departamento de Matema¡tica Aplicada e Fa­sica Tea³rica. “Existem limites fundamentais inerentes a  matemática e, da mesma forma, algoritmos de IA não podem existir para certos problemas”.

Os pesquisadores dizem que, por causa desse paradoxo, hácasos em que boas redes neurais podem existir, mas uma rede inerentemente confia¡vel não pode ser construa­da. "Nãoimporta quanto precisos sejam seus dados, vocênunca pode obter as informações perfeitas para construir a rede neural necessa¡ria", disse o coautor Dr. Vegard Antun, da Universidade de Oslo.

A impossibilidade de computar a boa rede neural existente também éverdadeira independentemente da quantidade de dados de treinamento. Nãoimporta quantos dados um algoritmo possa acessar, ele não produzira¡ a rede desejada. "Isso ésemelhante ao argumento de Turing: existem problemas computacionais que não podem ser resolvidos independentemente do poder de computação e do tempo de execução", disse Hansen.

Os pesquisadores dizem que nem toda IA ​​éinerentemente falha, mas éconfia¡vel apenas em áreas especa­ficas, usando manãtodos específicos. “O problema estãonas áreas em que vocêprecisa de garantia, porque muitos sistemas de IA são uma caixa preta”, disse Colbrook. "Em algumas situações, não háproblema em que uma IA cometa erros, mas precisa ser honesta sobre isso. E não éisso que estamos vendo para muitos sistemas - não hácomo saber quando eles estãomais confiantes ou menos confiantes sobre uma decisão."

“Atualmente, os sistemas de IA a s vezes podem ter um toque de adivinhação”, disse Hansen. "Vocaª tenta algo e, se não funcionar, adiciona mais coisas, esperando que funcione. Em algum momento, vocêse cansara¡ de não conseguir o que deseja e tentara¡ um manãtodo diferente. a‰ importante entender as limitações de diferentes abordagens. Estamos no esta¡gio em que os sucessos práticos da IA ​​estãomuito a  frente da teoria e do entendimento. a‰ necessa¡rio um programa para entender os fundamentos da computação de IA para preencher essa lacuna."

"Quando os matema¡ticos do século 20 identificaram diferentes paradoxos, eles não pararam de estudar matemática. Eles apenas tiveram que encontrar novos caminhos, porque entenderam as limitações", disse Colbrook . “Para a IA, pode ser o caso de mudar caminhos ou desenvolver novos para construir sistemas que possam resolver problemas de maneira confia¡vel e transparente, entendendo suas limitações”.

A próxima etapa para os pesquisadores écombinar teoria de aproximação, análise numanãrica e fundamentos de computação para determinar quais redes neurais podem ser computadas por algoritmos e quais podem se tornar esta¡veis ​​e confia¡veis. Assim como os paradoxos sobre as limitações da matemática e dos computadores identificados por Ga¶del e Turing levaram a teorias de fundamentos ricas osdescrevendo tanto as limitações quanto as possibilidades da matemática e da computação ostalvez uma teoria de fundamentos semelhante possa florescer na IA.

 

.
.

Leia mais a seguir