Pela primeira vez, cientistas conseguiram manter um qubit em estado de coerência por mais de 1 milissegundo, tempo suficiente para realizar um volume considerável de operações quânticas.
O feito é extremamente relevante no desenvolvimento de computadores quânticos funcionais, cuja promessa ainda depende de progressos técnicos para deixar o campo teórico e alcançar aplicações reais.
O estudo, publicado na renomada revista científica Nature Communications, detalha como o grupo de pesquisa liderado por Mikko Möttönen, da Universidade Aalto, conseguiu elevar significativamente o desempenho dos qubits do tipo transmon, superando a antiga marca de 0,6 milissegundos estabelecida pelo Fermilab em 2024.
Por que o tempo de coerência importa?
Na computação quântica, qubits podem assumir estados de superposição, isto é, representar simultaneamente os valores 0 e 1, o que amplia exponencialmente a capacidade de processamento frente aos bits tradicionais.
Esse estado, no entanto, é altamente instável e sensível a qualquer interferência externa, levando à perda de informação em um fenômeno conhecido como decoerência.
O tempo de coerência mede justamente quanto tempo o qubit consegue manter sua integridade quântica antes de colapsar. Quanto maior esse tempo, mais operações podem ser realizadas antes que os dados se percam, o que reduz a necessidade de mecanismos complexos de correção de erro.
Esses sistemas captam tudo, inclusive o que não queremos. Se a coerência se perde, perdemos também o conteúdo quântico
Mikko Möttönen, pesquisador da Universidade Aalto
Entre limpeza e precisão, nasce um novo recorde
Para atingir o novo patamar de desempenho, a equipe testou variações nos circuitos dos chips e adotou cuidados meticulosos no processo de fabricação. Limpar interfaces, reorganizar conexões e refinar a geometria dos cabos foram alguns dos ajustes que culminaram no resultado.
O físico Ioan Pop, do Instituto de Tecnologia de Karlsruhe (não envolvido diretamente na pesquisa, mas colaborador de Möttönen em outro projeto), comparou o processo à cozinha de precisão: “Não me surpreende que interfaces limpas melhorem o desempenho dos qubits. Mas conseguir controlar tudo com esse nível de rigor é impressionante. É como seguir uma receita química em que tudo interfere no sabor.”
Menos erro, mais eficiência
Em computadores quânticos atuais, a correção de erros exige o uso de múltiplos qubits físicos para simular um único qubit lógico. Esse artifício mitiga as falhas causadas pela decoerência, mas aumenta o custo computacional e limita a escalabilidade.
Com tempos de coerência mais longos, há menos necessidade de aplicar esse tipo de correção constantemente, o que pode acelerar o uso prático da tecnologia e abrir espaço para circuitos mais complexos.
Mesmo que seja impossível eliminar a decoerência, é possível reduzi-la a um ponto em que os erros se tornem raros o suficiente para operações funcionais em larga escala
Mikko Möttönen, pesquisador da Universidade Aalto
O que realmente mudou? Entenda o avanço em termos simples
A pesquisa publicada não só bateu um recorde: ela também documentou, com precisão e reprodutibilidade, como chegar lá. Em vez de depender de sorte ou condições de laboratório difíceis de repetir, os cientistas mostraram um processo técnico claro e detalhado para fabricar qubits mais estáveis.
Isso significa que:
- Eles conseguiram manter um qubit funcionando de forma coerente por até 1 milissegundo, tempo suficiente para realizar milhares de operações quânticas com mais precisão.
- O tempo médio de relaxamento de energia (T1) e o tempo médio de desfasamento (dephasing) também subiram para valores inéditos entre os transmons: 425 μs e 541 μs, respectivamente.
- O estudo revela como cada etapa de fabricação, desde a escolha dos materiais até o corte do chip, impacta o desempenho final do qubit, algo vita para escalar a tecnologia.
E por que isso importa?
Em outras palavras, a equipe não só chegou mais longe, ela também deixou o mapa do caminho
Porque qubits que duram mais tempo e são mais previsíveis facilitam a construção de computadores quânticos maiores e mais confiáveis.
Com esse nível de controle, fica mais fácil produzir chips com dezenas (ou centenas) de qubits que se comportem de forma parecida, o que é indispensável para sair da fase experimental e chegar à aplicação real.
Leia também:
- Computação quântica pode ser a próxima “moda”, mas faltam profissionais qualificados
- Phasecraft: startup britânica afirma ter multiplicado por 10 a eficiência das simulações quânticas
- Avanço em comunicação quântica aproxima criptografia “inviolável” da realidade
Um avanço entre centenas que ainda virão
Apesar do entusiasmo, o consenso entre os especialistas é que ainda há muitos degraus até que a computação quântica atinja um ponto de inflexão. O resultado atual é um dos muitos passos técnicos necessários para chegar a uma máquina que resolva, de fato, problemas que seriam impraticáveis para os supercomputadores clássicos.
Hoje, processadores como o Sycamore, do Google, contam com 53 qubits, enquanto o H1-1, da Quantinuum, chegou a 56. Ambos demonstraram feitos notáveis, mas ainda não atingiram o chamado “quantum advantage” em aplicações práticas.
O mais animador é que estamos entrando numa fase em que essas máquinas já conseguem executar circuitos razoáveis. Agora só falta um pouco mais de funcionalidade. Algo não aleatório, mas concreto. E isso pode acontecer em poucos anos.
Fonte: Nature Communications