Humanidades

Prêmio Nobel de física é concedido a dois cientistas por descobertas que permitiram o aprendizado de máquina
Dois pioneiros da inteligência artificial — John Hopfield e Geoffrey Hinton — ganharam o Prêmio Nobel de Física na terça-feira por ajudar a criar os blocos de construção do aprendizado de máquina que está revolucionando a maneira como trabalhamos...
Por The Associated Press - 08/10/2024


John Hopfield e Geoffrey Hinton, vistos na foto, recebem o Prêmio Nobel de Física deste ano, anunciado em uma coletiva de imprensa por Hans Ellergren, no centro, secretário permanente da Academia Sueca de Ciências em Estocolmo, Suécia, terça-feira, 8 de outubro de 2024. Crédito: Christine Olsson/TT News Agency via AP


Dois pioneiros da inteligência artificial — John Hopfield e Geoffrey Hinton — ganharam o Prêmio Nobel de Física na terça-feira (8) por ajudar a criar os blocos de construção do aprendizado de máquina que está revolucionando a maneira como trabalhamos e vivemos, mas também cria novas ameaças à humanidade, disse um dos vencedores.

Hinton, conhecido como o Padrinho da inteligência artificial, é um cidadão canadense e britânico que trabalha na Universidade de Toronto, e Hopfield é um americano que trabalha em Princeton.

"Os dois ganhadores do Prêmio Nobel de Física deste ano usaram ferramentas da física para desenvolver métodos que são a base do poderoso aprendizado de máquina de hoje", disse o comitê do Nobel em um comunicado à imprensa.

Ellen Moons, membro do comitê do Nobel na Real Academia Sueca de Ciências, disse que os dois laureados "usaram conceitos fundamentais da física estatística para projetar redes neurais artificiais que funcionam como memórias associativas e encontram padrões em grandes conjuntos de dados".

Ela disse que essas redes têm sido usadas para promover pesquisas em física e "também se tornaram parte de nossas vidas diárias, por exemplo, no reconhecimento facial e na tradução de idiomas".

Hinton previu que a IA acabará tendo uma "enorme influência" na civilização, trazendo melhorias na produtividade e na assistência médica.

"Seria comparável à Revolução Industrial", disse ele em uma entrevista aberta com repórteres e autoridades da Real Academia Sueca de Ciências.

"Em vez de exceder as pessoas em força física, vai exceder as pessoas em capacidade intelectual. Não temos experiência de como é ter coisas mais inteligentes do que nós. E vai ser maravilhoso em muitos aspectos", disse Hinton. "Mas também temos que nos preocupar com uma série de possíveis consequências ruins, particularmente a ameaça dessas coisas ficarem fora de controle."


O comitê do Nobel que homenageou a ciência por trás do aprendizado de máquina e da IA também mencionou temores sobre seu possível reverso. Moon disse que, embora tenha "enormes benefícios, seu rápido desenvolvimento também levantou preocupações sobre nosso futuro. Coletivamente, os humanos carregam a responsabilidade de usar essa nova tecnologia de forma segura e ética para o maior benefício da humanidade".

Hinton compartilha essas preocupações. Ele deixou um cargo no Google para poder falar mais livremente sobre os perigos da tecnologia que ajudou a criar.

Na terça-feira, ele disse que ficou chocado com a homenagem.

"Estou pasmo. Eu não tinha ideia de que isso aconteceria", disse ele quando contatado pelo comitê do Nobel por telefone.

Não houve reação imediata de Hopfield.

O cientista da computação Geoffrey Hinton posa na sede do Google em Mountain View, Califórnia, na quarta-feira, 25 de março de 2015. Crédito: AP Photo/Noah Berger, Arquivo

Hinton, agora com 76 anos, ajudou a desenvolver na década de 1980 uma técnica conhecida como retropropagação, que tem sido fundamental para treinar máquinas a "aprender".

Mais tarde, sua equipe na Universidade de Toronto impressionou seus colegas ao usar uma rede neural para vencer a prestigiosa competição de visão computacional ImageNet em 2012. Essa vitória gerou uma onda de imitadores, dando origem ao surgimento da IA moderna.

Hinton e seus colegas cientistas de IA Yoshua Bengio e Yann LeCun ganharam o maior prêmio da ciência da computação, o Prêmio Turing, em 2019.

"Por muito tempo, as pessoas achavam que o que nós três fazíamos era um absurdo", disse Hinton à The Associated Press em 2019. "Elas achavam que estávamos muito equivocados e que o que fazíamos era algo muito surpreendente para pessoas aparentemente inteligentes desperdiçarem seu tempo. Minha mensagem para os jovens pesquisadores é: não desanimem se todos disserem que o que estamos fazendo é bobagem."


Hopfield, 91, criou uma memória associativa que pode armazenar e reconstruir imagens e outros tipos de padrões em dados, disse o comitê do Nobel.

"O que mais me fascina ainda é essa questão de como a mente surge da máquina", disse Hopkins em um vídeo postado online pelo Instituto Franklin após receber um prêmio de física em 2019.

O professor Anders Irbäck explica o trabalho de John Hopfield e Geoffrey Hinton após receber o Prêmio Nobel de Física de 2024 em uma coletiva de imprensa na Real Academia Sueca de Ciências em Estocolmo, Suécia, terça-feira, 8 de outubro de 2024. Crédito: Christine Olsson/TT News Agency via AP

Hinton usou a rede de Hopfield como base para uma nova rede que usa um método diferente, conhecido como máquina de Boltzmann, que, segundo o comitê, pode aprender a reconhecer elementos característicos em um determinado tipo de dado.

Seis dias de anúncios do Nobel começaram na segunda-feira com os americanos Victor Ambros e Gary Ruvkun ganhando o prêmio de medicina por sua descoberta de pequenos pedaços de material genético que servem como interruptores liga/desliga dentro das células que ajudam a controlar o que as células fazem e quando o fazem. Se os cientistas puderem entender melhor como eles funcionam e como manipulá-los, isso pode um dia levar a tratamentos poderosos para doenças como o câncer.

O prêmio de física traz um prêmio em dinheiro de 11 milhões de coroas suecas (US$ 1 milhão) de um legado deixado pelo criador do prêmio, o inventor sueco Alfred Nobel. Os laureados são convidados a receber seus prêmios em cerimônias em 10 de dezembro, o aniversário da morte de Nobel.

Os anúncios do Nobel continuam com o prêmio de química e física na quarta-feira e literatura na quinta-feira. O Prêmio Nobel da Paz será anunciado na sexta-feira e o prêmio de economia em 14 de outubro.

Anúncio do comitê Nobel:

A Real Academia Sueca de Ciências decidiu atribuir o Prémio Nobel da Física 2024 a

John J. Hopfield , Universidade de Princeton, NJ, EUA

Geoffrey E. Hinton , Universidade de Toronto, Canadá

"por descobertas e invenções fundamentais que permitem o aprendizado de máquina com redes neurais artificiais"


Eles treinaram redes neurais artificiais usando física

Os dois ganhadores do Nobel de Física deste ano usaram ferramentas da física para desenvolver métodos que são a base do poderoso aprendizado de máquina de hoje . John Hopfield criou uma memória associativa que pode armazenar e reconstruir imagens e outros tipos de padrões em dados. Geoffrey Hinton inventou um método que pode encontrar propriedades em dados de forma autônoma e, assim, executar tarefas como identificar elementos específicos em imagens.

Quando falamos sobre inteligência artificial, geralmente queremos dizer aprendizado de máquina usando redes neurais artificiais . Essa tecnologia foi originalmente inspirada pela estrutura do cérebro. Em uma rede neural artificial, os neurônios do cérebro são representados por nós que têm valores diferentes. Esses nós influenciam uns aos outros por meio de conexões que podem ser comparadas a sinapses e que podem ser fortalecidas ou enfraquecidas. A rede é treinada, por exemplo, desenvolvendo conexões mais fortes entre nós com valores simultaneamente altos. Os laureados deste ano conduziram um trabalho importante com redes neurais artificiais a partir da década de 1980.

John Hopfield inventou uma rede que usa um método para salvar e recriar padrões. Podemos imaginar os nós como pixels. A rede Hopfield utiliza física que descreve as características de um material devido ao seu spin atômico — uma propriedade que torna cada átomo um pequeno ímã. A rede como um todo é descrita de uma maneira equivalente à energia no sistema de spin encontrado na física, e é treinada encontrando valores para as conexões entre os nós para que as imagens salvas tenham baixa energia. Quando a rede Hopfield é alimentada com uma imagem distorcida ou incompleta, ela trabalha metodicamente através dos nós e atualiza seus valores para que a energia da rede caia. A rede, portanto, trabalha passo a passo para encontrar a imagem salva que é mais parecida com a imperfeita com a qual foi alimentada.

Geoffrey Hinton usou a rede Hopfield como base para uma nova rede que usa um método diferente: a máquina de Boltzmann. Ela pode aprender a reconhecer elementos característicos em um determinado tipo de dado. Hinton usou ferramentas da física estatística, a ciência dos sistemas construídos a partir de muitos componentes semelhantes. A máquina é treinada alimentando-a com exemplos que provavelmente surgirão quando a máquina for executada. A máquina de Boltzmann pode ser usada para classificar imagens ou criar novos exemplos do tipo de padrão no qual foi treinada. Hinton construiu sobre esse trabalho, ajudando a iniciar o atual desenvolvimento explosivo do aprendizado de máquina.

"O trabalho dos laureados já foi do maior benefício. Na física, usamos redes neurais artificiais em uma vasta gama de áreas, como o desenvolvimento de novos materiais com propriedades específicas", diz Ellen Moons, presidente do Comitê Nobel de Física.

O Prêmio Nobel de Física 2024

Os laureados deste ano usaram ferramentas da física para construir métodos que ajudaram a estabelecer a base para o poderoso aprendizado de máquina de hoje. John Hopfield criou uma estrutura que pode armazenar e reconstruir informações. Geoffrey Hinton inventou um método que pode descobrir propriedades em dados de forma independente e que se tornou importante para as grandes redes neurais artificiais atualmente em uso.

Eles usaram a física para encontrar padrões nas informações

Muitas pessoas já experimentaram como os computadores podem traduzir entre idiomas, interpretar imagens e até mesmo conduzir conversas razoáveis. O que talvez seja menos conhecido é que esse tipo de tecnologia tem sido importante para a pesquisa, incluindo a classificação e análise de grandes quantidades de dados. O desenvolvimento do aprendizado de máquina explodiu nos últimos quinze a vinte anos e utiliza uma estrutura chamada rede neural artificial. Hoje em dia, quando falamos sobre inteligência artificial, esse é frequentemente o tipo de tecnologia a que nos referimos.

Embora os computadores não possam pensar, as máquinas agora podem imitar funções como memória e aprendizado. Os laureados deste ano em física ajudaram a tornar isso possível. Usando conceitos e métodos fundamentais da física, eles desenvolveram tecnologias que usam estruturas em redes para processar informações.

O aprendizado de máquina difere do software tradicional, que funciona como um tipo de receita. O software recebe dados, que são processados de acordo com uma descrição clara e produz os resultados, muito parecido com quando alguém coleta ingredientes e os processa seguindo uma receita, produzindo um bolo. Em vez disso, no aprendizado de máquina o computador aprende pelo exemplo, permitindo que ele resolva problemas que são muito vagos e complicados para serem gerenciados por instruções passo a passo. Um exemplo é interpretar uma imagem para identificar os objetos nela.

Imita o cérebro

Uma rede neural artificial processa informações usando toda a estrutura da rede. A inspiração veio inicialmente do desejo de entender como o cérebro funciona. Na década de 1940, pesquisadores começaram a raciocinar em torno da matemática que fundamenta a rede de neurônios e sinapses do cérebro. Outra peça do quebra-cabeça veio da psicologia, graças à hipótese do neurocientista Donald Hebb sobre como o aprendizado ocorre porque as conexões entre os neurônios são reforçadas quando eles trabalham juntos.

Mais tarde, essas ideias foram seguidas por tentativas de recriar como a rede do cérebro funciona construindo redes neurais artificiais como simulações de computador. Nestas, os neurônios do cérebro são imitados por nós que recebem valores diferentes, e as sinapses são representadas por conexões entre os nós que podem ser fortalecidas ou enfraquecidas. A hipótese de Donald Hebb ainda é usada como uma das regras básicas para atualizar redes artificiais por meio de um processo chamado treinamento.

No final da década de 1960, alguns resultados teóricos desanimadores fizeram com que muitos pesquisadores suspeitassem que essas redes neurais nunca seriam de qualquer utilidade real. No entanto, o interesse em redes neurais artificiais foi reavivado na década de 1980, quando várias ideias importantes causaram impacto, incluindo o trabalho dos laureados deste ano.

Memória associativa

Imagine que você está tentando lembrar de uma palavra bastante incomum que você raramente usa, como uma para aquele piso inclinado frequentemente encontrado em cinemas e salas de aula. Você procura em sua memória. É algo como rampa... talvez radial...? Não, não é isso. Rake, é isso!

Esse processo de busca por palavras semelhantes para encontrar a correta é uma reminiscência da memória associativa que o físico John Hopfield descobriu em 1982. A rede Hopfield pode armazenar padrões e tem um método para recriá-los. Quando a rede recebe um padrão incompleto ou ligeiramente distorcido, o método pode encontrar o padrão armazenado que é mais semelhante.

Hopfield já havia usado sua formação em física para explorar problemas teóricos em biologia molecular. Quando foi convidado para uma reunião sobre neurociência, ele encontrou pesquisas sobre a estrutura do cérebro. Ele ficou fascinado pelo que aprendeu e começou a pensar sobre a dinâmica de redes neurais simples. Quando os neurônios agem juntos, eles podem dar origem a características novas e poderosas que não são aparentes para alguém que apenas olha para os componentes separados da rede.

Em 1980, Hopfield deixou seu cargo na Universidade de Princeton, onde seus interesses de pesquisa o levaram para fora das áreas em que seus colegas de física trabalhavam, e se mudou para o outro lado do continente. Ele aceitou a oferta de uma cátedra em química e biologia no Caltech (California Institute of Technology) em Pasadena, sul da Califórnia. Lá, ele teve acesso a recursos de computador que poderia usar para experimentação gratuita e para desenvolver suas ideias sobre redes neurais.

No entanto, ele não abandonou sua fundação na física, onde encontrou inspiração para sua compreensão de como sistemas com muitos componentes pequenos que trabalham juntos podem dar origem a fenômenos novos e interessantes. Ele se beneficiou particularmente de ter aprendido sobre materiais magnéticos que têm características especiais graças ao seu spin atômico — uma propriedade que torna cada átomo um pequeno ímã. Os spins de átomos vizinhos afetam uns aos outros; isso pode permitir que domínios se formem com spin na mesma direção. Ele foi capaz de fazer uma rede modelo com nós e conexões usando a física que descreve como os materiais se desenvolvem quando os spins influenciam uns aos outros.

A rede salva imagens em uma paisagem

A rede que Hopfield construiu tem nós que são todos unidos por meio de conexões de diferentes forças. Cada nó pode armazenar um valor individual — no primeiro trabalho de Hopfield, isso poderia ser 0 ou 1, como os pixels em uma imagem em preto e branco.

Hopfield descreveu o estado geral da rede com uma propriedade que é equivalente à energia no sistema de spin encontrado na física; a energia é calculada usando uma fórmula que usa todos os valores dos nós e todas as forças das conexões entre eles. A rede Hopfield é programada por uma imagem sendo alimentada aos nós, que recebem o valor de preto (0) ou branco (1). As conexões da rede são então ajustadas usando a fórmula de energia, para que a imagem salva tenha baixa energia. Quando outro padrão é alimentado na rede, há uma regra para percorrer os nós um por um e verificar se a rede tem energia menor se o valor desse nó for alterado. Se acontecer que a energia é reduzida se um pixel preto for branco, ele muda de cor. Este procedimento continua até que seja impossível encontrar quaisquer melhorias adicionais. Quando este ponto é alcançado, a rede frequentemente reproduziu a imagem original na qual foi treinada.

Isso pode não parecer tão notável se você salvar apenas um padrão. Talvez você esteja se perguntando por que não salva a imagem em si e a compara com outra imagem que está sendo testada, mas o método de Hopfield é especial porque várias imagens podem ser salvas ao mesmo tempo e a rede geralmente consegue diferenciá-las.

Hopfield comparou a busca na rede por um estado salvo a rolar uma bola por uma paisagem de picos e vales, com atrito que desacelera seu movimento. Se a bola for largada em um local específico, ela rolará para o vale mais próximo e parará ali. Se a rede receber um padrão próximo a um dos padrões salvos, ela continuará avançando da mesma forma até terminar no fundo de um vale na paisagem energética, encontrando assim o padrão mais próximo em sua memória.

A rede Hopfield pode ser usada para recriar dados que contenham ruído ou que tenham sido parcialmente apagados.

Hopfield e outros continuaram a desenvolver os detalhes de como a rede Hopfield funciona, incluindo nós que podem armazenar qualquer valor, não apenas zero ou um. Se você pensar em nós como pixels em uma imagem, eles podem ter cores diferentes, não apenas preto ou branco. Métodos aprimorados tornaram possível salvar mais imagens e diferenciá-las mesmo quando são bastante semelhantes. É igualmente possível identificar ou reconstruir qualquer informação, desde que seja construída a partir de muitos pontos de dados.

Classificação usando física do século XIX

Lembrar de uma imagem é uma coisa, mas interpretar o que ela representa requer um pouco mais.

Até mesmo crianças muito pequenas podem apontar para diferentes animais e dizer com confiança se é um cachorro, um gato ou um esquilo. Elas podem errar ocasionalmente, mas logo acertam quase sempre. Uma criança pode aprender isso mesmo sem ver diagramas ou explicações de conceitos como espécie ou mamífero. Depois de encontrar alguns exemplos de cada tipo de animal, as diferentes categorias se encaixam na cabeça da criança. As pessoas aprendem a reconhecer um gato, ou entender uma palavra, ou entrar em uma sala e perceber que algo mudou, ao vivenciar o ambiente ao seu redor.

Quando Hopfield publicou seu artigo sobre memória associativa, Geoffrey Hinton estava trabalhando na Carnegie Mellon University em Pittsburgh, EUA. Ele havia estudado psicologia experimental e inteligência artificial na Inglaterra e na Escócia e estava se perguntando se as máquinas poderiam aprender a processar padrões de forma semelhante aos humanos, encontrando suas próprias categorias para classificar e interpretar informações. Junto com seu colega, Terrence Sejnowski, Hinton começou na rede de Hopfield e a expandiu para construir algo novo, usando ideias da física estatística.

A física estatística descreve sistemas que são compostos de muitos elementos similares, como moléculas em um gás. É difícil, ou impossível, rastrear todas as moléculas separadas no gás, mas é possível considerá-las coletivamente para determinar as propriedades abrangentes do gás, como pressão ou temperatura. Existem muitas maneiras potenciais para as moléculas de gás se espalharem por seu volume em velocidades individuais e ainda resultarem nas mesmas propriedades coletivas.

Os estados nos quais os componentes individuais podem existir conjuntamente podem ser analisados usando física estatística, e a probabilidade deles ocorrerem pode ser calculada. Alguns estados são mais prováveis do que outros; isso depende da quantidade de energia disponível, que é descrita em uma equação pelo físico do século XIX Ludwig Boltzmann. A rede de Hinton utilizou essa equação, e o método foi publicado em 1985 sob o nome marcante de máquina de Boltzmann.

Reconhecendo novos exemplos do mesmo tipo

A máquina de Boltzmann é comumente usada com dois tipos diferentes de nós. As informações são alimentadas para um grupo, que são chamados de nós visíveis. Os outros nós formam uma camada oculta. Os valores e conexões dos nós ocultos também contribuem para a energia da rede como um todo.

A máquina é executada aplicando uma regra para atualizar os valores dos nós um de cada vez. Eventualmente, a máquina entrará em um estado no qual o padrão dos nós pode mudar, mas as propriedades da rede como um todo permanecem as mesmas. Cada padrão possível terá então uma probabilidade específica que é determinada pela energia da rede de acordo com a equação de Boltzmann. Quando a máquina para, ela criou um novo padrão, o que torna a máquina de Boltzmann um exemplo inicial de um modelo generativo.

A máquina de Boltzmann pode aprender — não a partir de instruções, mas a partir de exemplos dados. Ela é treinada atualizando os valores nas conexões da rede para que os padrões de exemplo, que foram alimentados aos nós visíveis quando ela foi treinada, tenham a maior probabilidade possível de ocorrer quando a máquina for executada. Se o mesmo padrão for repetido várias vezes durante esse treinamento, a probabilidade desse padrão será ainda maior. O treinamento também afeta a probabilidade de produzir novos padrões que se assemelham aos exemplos nos quais a máquina foi treinada.

Uma máquina de Boltzmann treinada pode reconhecer traços familiares em informações que não viu anteriormente. Imagine conhecer o irmão de um amigo, e você pode ver imediatamente que eles devem ser parentes. De forma semelhante, a máquina de Boltzmann pode reconhecer um exemplo inteiramente novo se ele pertencer a uma categoria encontrada no material de treinamento, e diferenciá-lo de material que seja diferente.

Em sua forma original, a máquina de Boltzmann é bastante ineficiente e leva muito tempo para encontrar soluções. As coisas se tornam mais interessantes quando ela é desenvolvida de várias maneiras, que Hinton continuou a explorar. Versões posteriores foram diluídas, pois as conexões entre algumas das unidades foram removidas. Acontece que isso pode tornar a máquina mais eficiente.

Durante a década de 1990, muitos pesquisadores perderam o interesse em redes neurais artificiais, mas Hinton foi um dos que continuaram a trabalhar na área. Ele também ajudou a iniciar a nova explosão de resultados empolgantes; em 2006, ele e seus colegas Simon Osindero, Yee Whye Teh e Ruslan Salakhutdinov desenvolveram um método para pré-treinar uma rede com uma série de máquinas de Boltzmann em camadas, uma sobre a outra. Esse pré-treinamento deu às conexões na rede um melhor ponto de partida, o que otimizou seu treinamento para reconhecer elementos em imagens.

A máquina de Boltzmann é frequentemente usada como parte de uma rede maior. Por exemplo, ela pode ser usada para recomendar filmes ou séries de televisão com base nas preferências do espectador.

Aprendizado de máquina — hoje e amanhã

Graças ao seu trabalho desde a década de 1980 em diante, John Hopfield e Geoffrey Hinton ajudaram a estabelecer as bases para a revolução do aprendizado de máquina que começou por volta de 2010.

O desenvolvimento que estamos testemunhando agora foi possível por meio do acesso a vastas quantidades de dados que podem ser usados para treinar redes e por meio do enorme aumento no poder de computação. As redes neurais artificiais de hoje são frequentemente enormes e construídas a partir de muitas camadas. Elas são chamadas de redes neurais profundas e a maneira como são treinadas é chamada de aprendizado profundo.

Uma rápida olhada no artigo de Hopfield sobre memória associativa , de 1982, fornece alguma perspectiva sobre esse desenvolvimento. Nele, ele usou uma rede com 30 nós. Se todos os nós estiverem conectados uns aos outros, há 435 conexões. Os nós têm seus valores, as conexões têm diferentes forças e, no total, há menos de 500 parâmetros para acompanhar. Ele também tentou uma rede com 100 nós, mas isso era muito complicado, dado o computador que ele estava usando na época. Podemos comparar isso aos grandes modelos de linguagem de hoje, que são construídos como redes que podem conter mais de um trilhão de parâmetros (um milhão de milhões).

Muitos pesquisadores estão agora desenvolvendo áreas de aplicação do aprendizado de máquina. Qual será a mais viável ainda está para ser visto, enquanto há também uma ampla discussão sobre as questões éticas que cercam o desenvolvimento e o uso dessa tecnologia.

Como a física contribuiu com ferramentas para o desenvolvimento do aprendizado de máquina, é interessante ver como a física , como um campo de pesquisa, também está se beneficiando de redes neurais artificiais. O aprendizado de máquina tem sido usado há muito tempo em áreas com as quais podemos estar familiarizados de prêmios Nobel anteriores em física. Isso inclui o uso do aprendizado de máquina para peneirar e processar as vastas quantidades de dados necessárias para descobrir a partícula de Higgs. Outras aplicações incluem a redução de ruído em medições de ondas gravitacionais de buracos negros em colisão ou a busca por exoplanetas.

Nos últimos anos, essa tecnologia também começou a ser usada no cálculo e na previsão das propriedades de moléculas e materiais, como no cálculo da estrutura de moléculas de proteínas, que determina sua função, ou na descoberta de quais novas versões de um material podem ter as melhores propriedades para uso em células solares mais eficientes.


Mais informações: www.nobelprize.org/prizes/phys … dvanced-information/

© 2024 The Associated Press. Todos os direitos reservados. Este material não pode ser publicado, transmitido, reescrito ou redistribuído sem permissão.

 

.
.

Leia mais a seguir