Plan du site  
pixel
pixel

Articles - Étudiants SUPINFO

L'avènement de l'ère quantique

Par Fayçal SIDI ALI MEBAREK Publié le 03/03/2020 à 19:00:13 Noter cet article:
(0 votes)
Avis favorable du comité de lecture

Introduction

L'explosion récente de l'intérêt pour l'informatique quantique est due en grande partie à l'arrivée de l'ère du "Near-term Intermediate Scale Quantum" (en abrégé "NISQ"), dans laquelle plusieurs groupes expérimentaux dans les laboratoires universitaires et industriels sont désormais capables de mettre en œuvre des ordinateurs quantiques à l'échelle d'environ 50 qubits. Ces systèmes sont imparfaits - ils sont trop petits et trop bruyants pour faire fonctionner des algorithmes quantiques bien connus tels que l'algorithme de Shor ou de Grover. En effet, le principal défi de l'ère NISQ est d'ordre algorithmique - nous devons comprendre la puissance et les applications potentielles de ces systèmes quantiques à court terme.

John Preskill a d'abord décrit l'arrivée d'un événement décisif dans lequel, pour la première fois, une expérience de calcul quantique exécute une tâche bien définie beaucoup plus rapidement que n'importe quel ordinateur classique. Nous savons depuis le début des années 90, avec la découverte de l'algorithme de Shor, que les ordinateurs quantiques sont un modèle de calcul (potentiellement) réalisable, capable de résoudre certains problèmes spécifiques à une vitesse exponentielle, plus rapide que n'importe quel ordinateur classique. Plus formellement, cela signifie que le calcul quantique viole la thèse dite de "l'Eglise étendue de Turing" - le principe fondamental du calcul selon lequel tous les modèles de calcul réalisables peuvent être simulés par la machine de Turing classique avec au maximum un ralentissement du temps polynomial. Jusqu'à présent, nous n'avons eu que des preuves théoriques que c'est le cas - puisque les expérimentateurs n'ont pas encore mis en œuvre l'algorithme de Shor à grande échelle.

Il est excitant de constater que les allégations de la première violation expérimentale de la thèse de l'Eglise étendue de Thuringe ont déjà commencé à faire surface : le groupe de John Martinis de Google/UCSB a annoncé la première démonstration de ce type en utilisant leur expérience "Sycamore" comprenant 53 qubits supraconducteurs. Leurs conclusions ont récemment été publiées dans la revue Nature.

Echantillonnage de circuits aléatoires et résultats expérimentaux

La tâche que Martinis met en œuvre est connue sous le nom "d'échantillonnage de circuits aléatoires" : choisir un circuit quantique de manière aléatoire (à partir d'une distribution appropriée sur des opérations quantiques) et l'échantillonner à partir de la distribution de sortie de ce circuit. Il s'agit d'une tâche qui fait appel à un algorithme quantique simple : l'expérience quantique se contente de faire fonctionner le circuit quantique aléatoire et de mesurer chaque qubit, produisant ainsi un échantillon. Cependant, il n'est pas du tout évident que cela soit une tâche difficile pour un ordinateur classique. D'une part, les tâches de calcul normalement étudiées dans la théorie de la complexité sont des problèmes de décision : si l'on donne une entrée, la sortie est oui ou non. En revanche, la tâche d'échantillonnage de circuits aléatoires est une tâche d'échantillonnage, dans laquelle le but est de produire des échantillons à partir d'une certaine distribution compliquée sur des chaînes de n bits. En outre, grâce à la "propriété de Porter-Thomas" des circuits quantiques aléatoires, nous nous attendons à ce que les probabilités de résultat du circuit soient quelque peu plates, mais pas totalement uniformes. En raison des effets de l'interférence quantique, certaines probabilités de sortie seront légèrement plus élevées que d'autres. Si nous utilisons ce circuit quantique aléatoire et que nous effectuons des mesures, nous verrons presque certainement beaucoup de ces résultats "lourds" : ceux dont la masse de probabilité est supérieure à la normale dans la distribution des résultats. D'autre part, si nous donnons la description du circuit quantique choisi au hasard à un ordinateur classique, l'échantillonnage de la distribution ou même l'énumération de plusieurs résultats lourds semblerait nécessiter la simulation du circuit quantique en calculant explicitement les probabilités de résultats, ce qui est considéré comme une tâche difficile pour le calcul classique. Cette intuition peut être formalisée dans un certain sens : des travaux récents montrent que le calcul d'une probabilité de résultat de circuits quantiques aléatoires est aussi difficile que le calcul de la probabilité de sortie d'un circuit quantique arbitraire, et est donc insoluble classiquement, sous des hypothèses théoriques de complexité appropriées. Des preuves complémentaires de la dureté classique de l'échantillonnage de circuits aléatoires ont été fournies par Aaronson et Chen, qui (en gros) montrent un lien entre la production d'une liste de résultats de mesure lourds et l'estimation des probabilités de sortie de circuits quantiques aléatoires. Une question importante reste ouverte : étendre ces preuves de la "dureté de l'échantillonnage" quantique pour qu'elles fonctionnent dans un cadre de bruit expérimental réaliste dans lequel nous ne pouvons échantillonner qu'à partir d'une distribution des résultats proche de la distribution idéale des résultats.

Une deuxième question importante est de savoir comment utiliser les statistiques de résultats expérimentaux pour vérifier que la distribution des résultats de l'expérience quantique bruyante est proche de la distribution idéale des résultats. Il s'agit d'un problème hautement non négligeable - contrairement, par exemple, aux problèmes de décision dans la classe de complexité NP, nous n'attendons pas de méthode générale efficace pour vérifier classiquement l'exactitude de ce problème d'échantillonnage. Pour aggraver les choses, en raison de la "planéité" de la distribution idéale des résultats mentionnée précédemment, nous devrions effectuer l'expérience un très grand nombre de fois pour avoir une chance de voir le même résultat deux fois. La procédure de vérification de Google est basée sur un test statistique appelé "entropie croisée linéaire" qui prélève des échantillons de l'expérience et produit une note numérique. Si le score est suffisamment élevé, nous pouvons être sûrs que l'expérience fonctionne correctement. L'entropie croisée linéaire fonctionne essentiellement en attribuant des scores élevés aux échantillons de résultats qui se produisent avec une probabilité plus élevée que la normale dans la distribution des résultats du circuit aléatoire. Si les hypothèses sur le bruit expérimental sont suffisamment fortes, par exemple si le bruit est dépolarisant, nous pouvons prouver qu'un bon score en entropie croisée linéaire certifie des "mesures de proximité" plus traditionnelles telles que la fidélité. En outre, en utilisant des arguments de concentration des mesures, nous pouvons montrer que l'entropie croisée linéaire peut être calculée en utilisant un nombre raisonnablement faible d'échantillons provenant du dispositif expérimental. L'inconvénient de l'entropie linéaire croisée est que son calcul nécessite de calculer les probabilités de sortie idéales des échantillons observés expérimentalement. C'est une tâche de calcul difficile dont la difficulté s'échelonne de façon exponentielle dans la taille du système. C'est un compromis que nous pouvons nous permettre de faire pour des systèmes quantiques de taille intermédiaire, mais qui ne sera pas acceptable pour des systèmes de taille considérablement plus importante.

En regardant vers l'avenir, plutôt que de penser à un moment décisif défini par une seule expérience, il est plus probable qu'il y aura une série d'expériences qui permettront de lever progressivement toute incertitude, ou "failles". Pour l'instant, la lacune la plus urgente consiste à mieux caractériser le bruit de ces expériences et à comprendre dans quelle mesure la théorie - tant la dureté classique que la vérification - peut être rendue résistante à ce bruit. Enfin, à mesure que nous acquérons une plus grande confiance dans nos expériences, l'étape suivante consiste à trouver des applications pratiques utiles. Actuellement, l'application candidate la plus prometteuse a été proposée par Scott Aaronson, qui a développé un protocole utilisant des expériences d'échantillonnage de circuits aléatoires pour générer des nombres aléatoires dont le caractère aléatoire peut être prouvé sans faire confiance au dispositif quantique. Ce "caractère aléatoire certifiable" est souhaitable dans de nombreuses applications cryptographiques où les bits aléatoires sont souvent utilisés comme clés secrètes. Nous espérons bien sûr que ce sera la première des nombreuses applications qui découleront de cette nouvelle ère de l'informatique quantique.

Conclusion

En conclusion, nous nous trouvons actuellement à un moment critique dans le domaine de l'informatique quantique où la théorie et l'expérience de l'informatique quantique sont mises en synergie d'une manière nouvelle et révolutionnaire. Le résultat de Google/UCSB est certainement impressionnant et témoigne d'un progrès technique important. Même si la simulation avec un superordinateur classique ne prendrait que 2,5 jours au lieu de 10 000 ans, il n'en reste pas moins qu'une petite machine de 53 bits est compétitive par rapport au plus grand superordinateur classique actuellement en construction (coûtant 0,5 milliard de dollars). Une industrie de l'informatique quantique dynamique est en train d'émerger, avec Google qui s'efforce de repousser les limites des prototypes expérimentaux et IBM qui développe une base d'utilisateurs importante en déployant davantage de machines manufacturables dans son service de cloud computing quantique. Bien que l'on ne sache pas exactement ce que l'avenir nous réserve, il est clair que nous sommes sur la voie passionnante d'une ère quantique à venir.

Bibliographie

https://www.sigarch.org/the-coming-of-the-quantum-age/

A propos de SUPINFO | Contacts & adresses | Enseigner à SUPINFO | Presse | Conditions d'utilisation & Copyright | Respect de la vie privée | Investir
Logo de la société Cisco, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société IBM, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Sun-Oracle, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Apple, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Sybase, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Novell, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Intel, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Accenture, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société SAP, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Prometric, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Toeic, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo du IT Academy Program par Microsoft, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management

SUPINFO International University
Ecole d'Informatique - IT School
École Supérieure d'Informatique de Paris, leader en France
La Grande Ecole de l'informatique, du numérique et du management
Fondée en 1965, reconnue par l'État. Titre Bac+5 certifié au niveau I.
SUPINFO International University is globally operated by EDUCINVEST Belgium - Avenue Louise, 534 - 1050 Brussels