Supremacia Quântica: Realidade (ou Ficção?) e Implicações para o Futuro

Supremacia Quântica: Realidade (ou Ficção?) e Implicações para o Futuro

REDAÇÃO

21 de novembro de 2019 | 18h11

Gustavo Mirapalheta é professor de Data Science e Big Data da FGV EAESP.

Eduardo de Rezende Francisco é professor de Data Science, GeoAnalytics e Big Data da FGV EAESP e fundador do grupo de estudos GisBI.

 

No último dia 23 de Outubro de 2019, a Google anunciou, através de artigo publicado na famosa revista científica Nature, que seus pesquisadores foram capazes de tornar realidade um novo tipo de computador, o qual realiza seus cálculos a partir de princípios totalmente distintos dos computadores atuais. Por causa desta forma revolucionária de calcular, esta nova máquina seria capaz de resolver problemas impossíveis até mesmo para os mais potentes supercomputadores atuais. Uma vez que a nova forma de realizar os cálculos está baseada em princípios da Mecânica Quântica, a estranha física que descreve os fenômenos no mundo do infinitamente pequeno, dizemos que esta máquina teria atingido a Supremacia Quântica.

O que isto significa para o dia a dia das pessoas em geral, no curto e no médio prazo? Qual poderá ser o real impacto desta Supremacia Quântica? O que é vaporware e trueware (perdoem o nosso trocadilho com a língua inglesa)? É esta reflexão que convidamos o leitor a realizar conosco ao longo dos próximos parágrafos.

Podemos dizer, de partida, que caso a supremacia quântica seja confirmada, entre outras coisas, conseguiremos manter a Lei de Moore em funcionamento – ou no mínimo “turbiná-la” ao extremo. A Lei de Moore é na verdade uma observação, feita por Gordon Earl Moore, um dos fundadores da Intel, em 1965. Naquele ano ele percebeu que os fabricantes de hardware eram capazes de dobrar o poder de processamento dos chips (o “cérebro dos computadores”) a cada 18 meses aproximadamente. Este aumento de poder computacional era consequência da capacidade de colocar mais e mais transistores em uma mesma pastilha de silício (o tal chip). Pense nos transistores como os “neurônios” do chip. Assim como nosso cérebro é capaz de desempenhar tarefas sofisticadas pelo fato de ter uma enorme quantidade de neurônios, quanto maior o número de transistores em um chip, mais rápido e de forma mais sofisticada o mesmo desempenhará suas tarefas.

Uma vez que estamos colocando mais e mais transistores dentro da mesma pastilha (do mesmo chip), cada transistor está ficando cada vez menor. Em outras palavras, estamos fazendo o mesmo transistor com menos átomos, a unidade básica de matéria. Sendo assim, a Lei de Moore mais dia menos dia irá atingir um platô de desempenho, pois no limite estaremos fabricando cada transistor com apenas um átomo. E menos que um átomo para cada transistor não é possível, pois não é possível para um mesmo material cindir os seus átomos individuais. Em tese, poder pode, o problema é que aí o material deixa de ser o material original e passa a ser outro, o que ocorre em um reator nuclear, mas isto inviabilizaria a produção dos chips do mesmo jeito.

Sendo assim, na pior das hipóteses, um dia teríamos um átomo para cada transistor. Dessa forma, a capacidade de utilizar cada vez menos material para produzir a unidade básica de eletrônica teria se esgotado e a Lei de Moore iria acabar.
Na prática muito antes disso, a Mecânica Quântica, com todo o seu “zoológico” de regras esquisitas, entrará em cena e tornará inúteis os nossos esforços em utilizar menos átomos para fabricar um transistor. Seria como se, a partir de um determinado tamanho, ou de uma quantidade de átomos por transistor, eles começassem a “brincar de esconde-esconde” com as nossas técnicas de fabricação.

Vale lembrar que na virada para o século XXI a Intel conseguiu dar um bypass em outra barreira (ainda de física clássica) nos processos de fabricação. Naquela época foi superada a barreira da densidade térmica. Por regras da física, existe uma quantidade padrão de energia que precisa ser gasta para trocar 1 bit de posição. A medida que mais e mais transistores são colocados dentro da mesma pastilha de silício, mais e mais informação em potencial é processada na mesma pastilha e por consequência, no mesmo volume de material.

Esta energia é dissipada na forma de calor. E a dissipação ocorre não por volume, mas por área, pois literalmente o calor precisa “sair” de dentro da pastilha. Como a geração de calor aumenta por volume (proporcional ao cubo da dimensão linear) e a capacidade de dissipação aumenta por área (proporcional ao quadrado da dimensão linear) ao inserir mais transistores no mesmo volume aumentamos de forma mais que proporcional a quantidade de calor que temos de dissipar para uma mesma área disponível para tal. Em outras palavras aumentamos a densidade térmica da pastilha.
Sendo assim, a partir de um certo ponto, não adiantava mais aos fabricantes de chips simplesmente inserir mais transistores na mesma pastilha, pois se tentássemos utiliza-los “a todo vapor” a pastilha simplesmente iria derreter por incapacidade do material de dissipar o calor gerado dentro dela.

O bypass foi dado de duas formas: materiais com uma capacidade de condução do calor maior e divisão de tarefas entre as pastilhas (o chamado multicore). Isto deu sobrevida à Lei de Moore pelos últimos 15 a 20 anos.
Estamos agora chegando no ponto em que o desafio será não de física clássica, mas de física quântica como comentamos acima. E este é muito mais fundamental que o anterior, da densidade térmica. No caso da densidade térmica tínhamos um desafio de engenharia. Aqui temos um limite imposto pelas regras da natureza neste estranho mundo do infinitamente pequeno. Este desafio está intimamente ligado a forma pela qual processamos as unidades de informação (os bits) através das tecnologias atuais. Em outras palavras, resumidamente no popular, “não vai rolar”.

A menos que… seja encontrada outra forma de processar as unidades básicas de informação. A forma que temos hoje é a forma dita “clássica” na qual o bit de informação ou se encontra em 0 ou se encontra em 1. Aliás, é por essa essencial razão que o chamamos de “bit” (binary digit, ou dígito binário).

A forma como muitos de nós “nascemos” no mundo da computação está intrinsecamente ligada à “concepção” da representação digital do mundo em 0s e 1s. Toda a Ciência da Computação, nascida da Matemática Aplicada, tem isso como seu alicerce fundamental.
De certa forma a Natureza dá com uma mão e tira com a outra.

Na forma clássica de olhar os bits, iremos encontrar a barreira do nano (a barreira das regras de mecânica quântica). Porém, estas mesmas regras nos falam que, no seu estado fundamental, as partículas têm dois estados 0 ou 1 possíveis de serem observados. Porém, “se não estivermos olhando” (esse conceito por si só merece muitos artigos futuros), as partículas estão simultaneamente no 0 e no 1. Este fenômeno é conhecido como sobreposição quântica de estados.
O que um computador quântico faz é colocar várias partículas para trabalhar em conjunto de forma que n partículas estarão em 2n (dois elevado à potência n) estados simultaneamente. Este outro fenômeno de colocar várias partículas para trabalhar em grupo se chama entralaçamento quântico.

Sendo assim, um computador quântico faz uso dos fenômenos de sobreposição de estados e entrelaçamento quântico para encontrar uma outra forma de calcular resultados de operações matemáticas. Acaba a dicotomia 0 e 1.
Como o número de estados possíveis cresce em progressão geométrica (exponencial) ao número de partículas, rapidamente temos tantos estados possíveis simultâneos para nosso sistema estar que ele literalmente “escolhe” o resultado ao invés de calculá-lo.

A rigor, ele não “escolhe” o resultado que queremos, mas sim, calcula-o de forma mais eficaz por conta do processo de sobreposição e entrelaçamento, porém na prática você pode pensar que ele “escolhe” o resultado ao invés de calculá-lo.
Um professor de física ou matemática mais rigoroso vai dizer que estamos errados. De certa forma estamos, porém para fins de cálculo do tipo “caixa-preta”, o raciocínio é válido como uma “metáfora útil” (da mesma forma que ao montarmos um circuito elétrico utilizamos simplificações úteis das equações de Maxwell).

Enfim, se o processo de realizar os cálculos por sobreposição e entrelaçamento realmente for possível de ser posto em prática (existem alguns problemas de tecnologia a serem superados), teremos conseguido dar um novo bypass nas regras da natureza. Assim, a lógica da indústria nos últimos sessenta anos se manterá, Moore continuará certo, e continuará valendo a regra do: “não se preocupem, porque o ano que vem os computadores virão mais rápidos e mais baratos”.

O sinal de que conseguimos colocar a mecânica quântica para trabalhar para nós é a tal “supremacia quântica”. É o momento no qual um computador (ainda que no estilo protótipo) que utilize estes dois fenômenos (sobreposição e entrelaçamento) consiga fazer um cálculo em um tempo tal, que um computador clássico, nem com todo o poder de processamento e o tempo do mundo, conseguiria executar.

Se isso realmente acontecer, problemas clássicos da computação, incluindo teoremas ainda não resolvidos da Matemática, serão solucionados em segundos ou minutos, e toda a concepção da segurança da informação através da criptografia terá que ser repensada completamente. Além disso, processos ligados à inteligência artificial, computação gráfica, geoinformação, modelos de simulação e otimização, perderão a classificação de exaustivos e ganharão uma dimensão potencial de evolução bem maior. Isto significa que de uma hora para outra uma classe enorme (potencialmente infindável) de problemas que estavam inacessíveis aos nossos métodos de pesquisa, estarão com a solução literalmente “ali na esquina”.

Foi isso que os cientistas do Google disseram ter atingido esta semana. Se for confirmado teremos um profundo impacto na humanidade, seja ela digital ou convencional. Realidade ou Ficção? Quem viver verá!

publicidade

publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.