Informatique quantique : Google ouvre la voie à des dispositifs quantiques résistants aux pannes

Informatique quantique : Google ouvre la voie à des dispositifs quantiques résistants aux pannes

Les équipes de Google viennent de démontrer que, sous certaines conditions, la correction des erreurs fonctionne sur le processeur quantique Sycamore de l’entreprise et peut même évoluer de manière exponentielle. De quoi mener à une nouvelle étape vers la construction d’un ordinateur quantique tolérant aux pannes.  Cette avancée est susceptible d’attirer l’attention des scientifiques travaillant sur la correction d’erreurs quantiques, un domaine qui ne s’intéresse pas au nombre de qubits mais plutôt à leur qualité.

Si l’augmentation du nombre de qubits pris en charge par les ordinateurs quantiques est souvent présentée comme le facteur clé permettant de débloquer la puissance de calcul sans précédent des technologies quantiques, il est tout aussi important de s’assurer que ces qubits se comportent de manière à obtenir des résultats fiables et sans erreur.  C’est l’idée qui sous-tend le concept d’un ordinateur quantique tolérant aux pannes, mais la correction d’erreurs quantiques n’en est encore qu’à ses débuts.

Pour l’instant, les scientifiques s’efforcent toujours de contrôler et de manipuler les quelques qubits dont ils disposent, en raison de la nature extrêmement instable de ces particules, ce qui signifie que les calculs quantiques sont encore truffés d’erreurs. Selon Google, la plupart des applications nécessiteraient des taux d’erreur aussi bas que 10^-15 ; en comparaison, les plateformes quantiques de pointe ont actuellement des taux d’erreur moyens proches de 10^-3.

publicité

Le processeur maison Sycamore entre en scène

Une solution consiste à améliorer la stabilité physique des qubits, même si les scientifiques privilégient de plus en plus une autre approche de contournement à travers laquelle les erreurs peuvent être détectées et corrigées directement au sein du processeur quantique. Pour ce faire, on distribue généralement les données quantiques sur de nombreux qubits différents et on utilise des qubits supplémentaires pour suivre ces informations, en identifiant et en corrigeant les erreurs au fur et à mesure. L’ensemble du groupe de qubits corrigé des erreurs forme un cluster unique appelé “qubit logique”.

Baptisée code stabilisateur, cette approche entrelace essentiellement des qubits de données avec des qubits de mesure qui peuvent transformer les perturbations indésirables des états des qubits de données en erreurs, qui peuvent ensuite être compensées grâce à un logiciel spécifique. Bien que les principes des codes stabilisateurs aient été théoriquement appliqués à différentes plateformes, il n’a pas été prouvé que la méthode pouvait être appliquée à l’échelle de grands systèmes, ni qu’elle pouvait résister à plusieurs cycles de correction d’erreurs, comme le rappelle Google.

Les chercheurs du géant américain ont entrepris de tester les codes stabilisateurs avec le processeur quantique maison Sycamore, en commençant par un cluster logique de qubits composé de cinq qubits reliés en une chaîne unidimensionnelle. Les qubits servaient alternativement de qubits de données et de qubits de mesure chargés de détecter les erreurs.

Surprise, ces derniers ont constaté que l’augmentation de la taille de la grappe réduisait les erreurs de manière exponentielle. L’équipe a testé la méthode avec différentes tailles de qubits logiques, pour atteindre un cluster maximal de 21 qubits, qui a permis de réduire l’erreur logique de plus de 100 fois par rapport aux clusters composés de seulement cinq qubits. En d’autres termes, plus le qubit logique est grand, mieux les erreurs peuvent être corrigées. 

Une grande marge d’erreur

Ce point est important car les ordinateurs quantiques pratiques devraient nécessiter au moins 1 000 qubits de correction d’erreurs pour chaque qubit logique. Il est donc fondamental de prouver que les méthodes de correction des erreurs peuvent être mises à l’échelle pour le développement d’un ordinateur quantique utile.  Google a également constaté que le taux de suppression des erreurs restait stable, même après 50 cycles de correction d’erreurs, ce qui, selon l’entreprise, constitue une “conclusion essentielle” quant à la faisabilité de la correction d’erreurs quantique.

Bien sûr, l’expérience présente encore d’énormes limites. Les ordinateurs quantiques actuels peuvent supporter moins de 100 qubits – Sycamore, par exemple, en compte 54 – ce qui signifie qu’il est impossible de tester la méthode avec les 1 000 qubits qui seraient nécessaires pour des applications pratiques.  Et même si 21 qubits étaient suffisants pour créer un qubit logique utile, le processeur de Google ne serait capable de supporter que deux de ces qubits logiques, ce qui est encore loin d’être suffisant pour être utilisé dans des applications réelles. Les résultats de Google restent donc pour l’instant une preuve de concept.

En outre, les scientifiques ont souligné que les taux d’erreur intrinsèquement élevés des qubits sont susceptibles de devenir problématiques. Dans les expériences de l’équipe, 11 % des contrôles ont fini par détecter une erreur, ce qui signifie que les technologies de correction d’erreurs devront être incroyablement efficaces pour capter et corriger chaque perturbation dans des dispositifs comportant plusieurs milliers de fois plus de qubits. 

L’ombre d’AWS

“Ces démonstrations expérimentales constituent une base pour la construction d’un ordinateur quantique évolutif tolérant aux fautes avec des qubits supraconducteurs”, veulent toutefois croire les chercheurs du géant américain. “Néanmoins, de nombreux défis restent à relever sur la voie de la correction quantique des erreurs évolutive”.

Reste que les découvertes de Google ont ouvert la porte à davantage de recherches et d’expériences dans un domaine de plus en plus chargé.  Au début de l’année, par exemple, AWS, la filiale d’Amazon spécialisée dans le cloud, a publié son premier document de recherche détaillant une nouvelle architecture pour un ordinateur quantique, dans le but d’établir une nouvelle norme pour la correction des erreurs.

La méthode d’AWS repose sur une approche similaire à celle de Google, mais elle est associée à une conception de processeur qui pourrait réduire le potentiel des qubits à changer d’état, dans ce qui a été présenté comme le plan d’un ordinateur quantique plus précis.  

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *