Desde pelo menos o século 19, os fasicos tem investigado o papel da entropia na teoria da informaa§a£o - estudando as transaa§aµes de energia para adicionar ou apagar bits de computadores, por exemplo.
Figura 3 do artigo "Produção de entropia dadas as restrições nas funções de energia." Crédito: Santa Fe Institute
De acordo com a segunda lei da termodina¢mica, a entropia total de um processo fechado pode aumentar ou permanecer a mesma, mas nunca diminuir. A segunda lei garante, por exemplo, que um ovo pode cair de uma mesa e deixar uma baguna§a no cha£o, mas que tal baguna§a nunca formara¡ um ovo espontaneamente e saltara¡ de volta na mesa. Ou o ar escapara¡ de um bala£o, mas nunca, por conta própria, o inflara¡. Desde pelo menos o século 19, os fasicos tem investigado o papel da entropia na teoria da informação - estudando as transações de energia para adicionar ou apagar bits de computadores, por exemplo.
A termodina¢mica da computação éum foco de pesquisa do fasico e membro do corpo docente residente da SFI David Wolpert, e nos últimos anos ele tem colaborado com Artemy Kolchinsky, fasico e ex-pa³s-doutorando da SFI, para entender melhor a conexão entre termodina¢mica e processamento de informações na computação . Sua última exploração do ta³pico, publicada na Physical Review E , examina a aplicação dessas idanãias a uma ampla gama de áreas cla¡ssicas e qua¢nticas, incluindo a termodina¢mica qua¢ntica.
"Os sistemas de computação são projetados especificamente para perder informações sobre seu passado a medida que evoluem", diz Wolpert.
Se uma pessoa insere "2 + 2" em uma calculadora e depois pressiona "enter", o computador retorna a resposta - 4. Ao mesmo tempo, a ma¡quina perde informações sobre a entrada, pois não apenas 2 + 2, mas também 3 + 1 (e outros pares de números) podem produzir a mesma saada. Com base apenas na resposta, a ma¡quina não pode relatar qual par de números atuou como entrada. Em 1961, o fasico da IBM Rolf Landauer descobriu que quando a informação éapagada, como durante um ca¡lculo desse tipo, a entropia da calculadora diminui (ao perder informações), o que significa que a entropia do ambiente deve aumentar.
“Se vocêapagar um pouco de informação, tera¡ que gerar um pouco de calorâ€, diz Kolchinsky.
Wolpert e Kolchinsky queriam saber: qual éesse custo de energia de de apagar informações para um determinado sistema? Landauer derivou uma equação para a quantidade manima de energia produzida durante o apagamento, mas a dupla SFI descobriu que a maioria dos sistemas realmente produz mais. “Ha¡ um custo que parece além do limite de Landauerâ€, diz Kolchinsky.
A única maneira de conseguir a perda manima de energia de Landauer, diz ele, éprojetar um computador com uma determinada tarefa em mente. Se o computador realizar algum outro ca¡lculo, ele gerara¡ entropia adicional. Kolchinsky e Wolpert demonstraram que dois computadores podem realizar o mesmo ca¡lculo, por exemplo, mas diferem na produção de entropia por causa de suas expectativas de entradas. Os pesquisadores chamam isso de "custo incompatavel" ou o custo de estar errado.
“a‰ o custo entre para que a ma¡quina foi construada e para que vocêa usaâ€, diz Kolchinsky.
Em artigos anteriores, a dupla provou que esse custo de incompatibilidade éum fena´meno geral que pode ser explorado em uma variedade de sistemas, não apenas na teoria da informação , mas também na física ou na biologia. Eles descobriram uma relação fundamental entre irreversibilidade termodina¢mica - o caso em que a entropia aumenta - e irreversibilidade lógica - o caso em computação em que o estado inicial éperdido. Em certo sentido, eles fortaleceram a segunda lei da termodina¢mica .
Em sua última publicação, Kolchinsky e Wolpert demonstram que essa relação fundamental se estende ainda mais amplamente do que eles pensavam anteriormente, incluindo a termodina¢mica dos computadores qua¢nticos. As informações em computadores qua¢nticos são vulnera¡veis ​​a perdas ou erros devido a flutuações estatasticas ou ruado qua¢ntico, razãopela qual os fasicos estãoprocurando novos manãtodos de correção de erros. Uma melhor compreensão do custo de incompatibilidade, diz Kolchinsky, pode levar a uma melhor compreensão de como prever e corrigir esses erros.
“Existe uma relação profunda entre a física e a teoria da informação â€, diz Kolchinksy.