Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

L’ordinateur quantique

Chercheurs australiens développant la nouvelle génération d'ordinateur quantique. Intrication quantique et qubit font à présent partie du nouveau langage informatique. Document ANU/RSPhysSE.

Une révolution technologique (I)

Depuis l’invention du premier circuit intégré monolithique par Jack Kilby de Texas Instruments en 1958, l’intégration des composants électroniques n’a cessé d’être améliorée au point que nous parvenons aujourd’hui à faire fonctionner des centaines de milliers de composants sur une puce (chip) mesurant à peine 1 cm2, c’est la technologie ULSI (Ultra Large Scale Integration) qui détrône aujourd’hui le VLSI. A cette échelle les circuits mesurent une fraction de micron !

Mais à ce niveau de miniaturisation la difficulté de fabrication devient digne d’une mission impossible. Non seulement les effets quantiques deviennent apparents et peuvent générer des erreurs mais en cours de fonctionnement les composants dissipent beaucoup de chaleur, réduisant d’autant leur durée de vie. A terme cette manière de fabriquer des circuits intégrés présente donc des limitations mécaniques dont on ne peut pas s’affranchir.

Pour supprimer ces difficultés, en 1982 le prix Nobel de physique Richard Feynman imagina l’ordinateur quantique, un ordinateur disait-il capable de "simuler la physique, [de réaliser] une simulation exacte, de faire exactement la même chose que la nature". Ce système serait capable de tirer avantage des propriétés quantiques, principalement des états de superpositions des particules intriquées.

Pour tester ses performances en calcul pur, il fallait trouver un programme adapté à cette nouvelle architecture. Or personne n'en avait jamais créé.

Une fois encore ce sont les laboratoires Bell et en particulier Peter Shor dont on reparlera qui inventa en 1994 un algorithme permettant de factoriser les grands nombres, de les convertir en produits de facteurs simples. Exemple : la factorielle de 120 = 5! = 5x4x3x2x1.

Il démontra qu'un ordinateur quantique pouvait effectuer ce calcul en un temps polynomial et non pas tendant vers une courbe exponentielle. On y reviendra.

Quel est le rapport entre la factorisation et l’ordinateur quantique ? La cryptographie ! Grâce à cet algorithme, un ordinateur quantique est en mesure de casser rapidement les codes d’encryption les plus complexes.

 Devant ce défi qui intéresse autant les majors de l’informatique que les services d’espionnage ou l’armée, des centaines de chercheurs aux quatre coins du monde se sont donnés pour objectif de construire le premier ordinateur quantique d’ici quelques années. La compétition est ouverte !

Voici le compte-rendu de ces recherches. Nous allons décrire les concepts de base, les différentes technologies et les principales applications des ordinateurs quantiques.

Représentation artistique des fameux bits quantiques ou qubits. Il s'agit des états intriqués de deux particules dont la taille varie selon la technologie entre celle d'un électron et d'une molécule. Document U.Melbourne/Marc Coe.

Comment fonctionne un ordinateur quantique ?

Nous savons qu’un ordinateur classique traite des informations élémentaires, des bits, qui ne peuvent présenter qu’un parmi deux états possibles : 0 ou 1. C’est le langage binaire.

Avec 4 bits, un ordinateur classique peut traiter un état parmi 24 soit 16 états différents : 0000, 0001, 0010, 0011, etc. Dans notre exemple, l’avantage de l’ordinateur quantique est de pouvoir traiter simultanément les 16 états.

On ne parle plus de bits mais de bits quantiques ou qubits en abrégé (de l'anglais “quantum bits”) dont une illustration artistique est présentée ci-dessus. Un ordinateur quantique équipé de processeurs de n qubits (à l'image du processeur de 32 bits d'un ordinateur classique) permet donc de gérer 2n informations différentes simultanément ! Il calcule donc n fois plus vite qu’un ordinateur classique puisqu’il est capable d’effectuer ces calculs en parallèle ! Le nombre de qubits augmente donc de manière exponentielle la puissance du travail en parallèle.

Qubit et sphère de Bloch

A gauche, un bit ordinaire est caractérisé par deux états, 0 ou 1. Au centre un pbit ou "bit probabiliste". Il représente la distribution des probabilités d'un bit. L'expression indiquée signifie que le pbit a une probabilité p d'être dans l'état 0 et 1-p d'être dans l'état 1. C'est l'exemple typique de la pièce de monnaie que l'on jete en l'air : elle a 1 chance sur 2 de tomber sur pile, 1 chance sur 2 de tomber sur face. 

Le résultat après effondrement correspond à l'un des deux états 0 ou 1. On ne peut donc voir la distribution de probabilité mais uniquement les états déterministes des bits. A la limite, en disposant d'un nombre infini de pbits, la probabilité p correspond à la fraction de pbits observés dans l'état 0.

En revanche, le qubit présenté à droite opérant dans un univers multidimensionnel, ses états propres correspondent à la surface d'une sphère dite de Bloch évoluant dans l'espace d'Hilbert tandis que ses états logiques correspondent aux pôles de cette sphère. Autrement dit, cette représentation symbolise l’état d’un système à deux niveaux : le pôle Nord correspond à l'état |0> tandis que le pôle Sud correspond à l'état |1>. 

De la même manière qu'avec les pbits, à travers une opération de mesure on peut convertir les états des qubits en information classique, bien sûr à la condition de ne pas avoir observé les états intermédiaires au risque de provoquer un effondrement prématuré des qubits et de perdre l'information.

En résumé, toute la difficulté de la fabrication d'un ordinateur quantique consiste à initilialiser le système correctement, à contrôler l'intrication des qubits et lire l'information de manière efficace. Illustration de W.H.Zurek et al.

Pour mémoire, précisons qu'un ensemble de n qubits est appelé un registre quantique, élément qu'on retrouve évidemment dans le processeur et la mémoire d'un ordinateur quantique.

Aujourd’hui nous sommes loin de pouvoir gérer des milliers de qubits et les calculateurs quantiques les plus rapides travaillent au mieux avec des registres de 16 qubits, l’équivalent d’un processeur de 16 bits mais massivement parallèle quantiquement parlant. L’avantage est évidemment une vitesse de traitement très rapide mais qui n'a encore rien d'exceptionnel. Nous reviendrons plus loin sur les performances réelles de l'ordinateur quantique.

L’intrication quantique, également appelé enchevêtrement quantique ou superposition d'états, semble donc être responsable de la puissance de calcul des ordinateurs quantiques ainsi que l'ont expliqué les mathématiciens anglais Artur Ekert de l'Université d'Oxford et Richard Jozsa de l'Université de Plymouth en 1997.

Superposition d'états d'un qubit :

|Ψ> = α|0> + β|1>  ssi |α|2 + |β|2 = avec α et β complexes.

Intrication quantique de deux qubits :

( 1/2 ) ( |0>A|0>B + (|1>A|1>B)     |Ψ>A|Φ>B

Le phénomème d'intrication quantique représente l'une des propriétés essentielles et des plus étranges des qubits comme de toutes les particules corrélées.

Certains scientifiques ont prétendu qu'un ordinateur de 100 qubits permettrait de simuler le fonctionnement de tout un cerveau humain. Rappelons qu'avec 100 milliards de neurones (1011), l'équivalent numérique du cerveau devrait gérer quelque 21011 états possibles ! Le cortex humain dispose au mieux de 1015 synapses et 10000 contacts par cellule. Cela signifie qu'un ordinateur quantique de 100 qubits serait capable de traiter l'équivalent de 1019 bits d’information soit, en jargon informatique l’équivalent d’une puissance de 10000 TeraFLOPS !

Pour le physicien Colin P. Williams de D-Wave Systems, un ordinateur quantique de 300 qubits pourrait effectuer en une fraction de seconde plus d'opérations qu'il y a d'atomes dans tout l'univers. Si on extrapole ce résultat, cette performance permet aux scientifiques d'envisager de simuler le... Big Bang !

Mais d'autres physiciens pourraient lui répondre que 300 qubits ne sont que 300 qubits. Il faudra toujours des bits ordinaires pour stocker cette information. Sauf, si cela a un sens, si on trouve le moyen de fabriquer une mémoire de masse quantique capable de stocker nos informations classiques plus efficacement. La téléportation à la Star Trek n'est pas pour demain !

Ceci étant précisé, nous allons à présent décrire d'autres concepts qui vont nous aider à comprendre l'architecture de base d'un ordinateur quantique et les difficultés que peuvent rencontrer les physiciens au cours de leurs expériences que nous décrirons ensuite.

Comment créer un qubit ?

Un qubit n'est pas une particule ni une information mais un support d'information. On ne peut donc pas créer un qubit ex nihilo mais uniquement de manière indirecte. 

Un qubit peut être une particule en superpositions d'états quantiques (en général un fermion de spin 1/2h tel qu'un électron, noyau, atome), un photon ou une propriété quantique telle que la différence d'énergie entre deux états atomiques, le spin d'un électron, etc.

Ce qubit est sensible aux champs électromagnétiques (champ magnétique, champ électrique, impact de photons, etc) et bien d'autres interactions.

Les qubits sont associés à des fonctions d'ondes dont la symétrie est plus ou moins prononcée. Cette symétrie est soit sphérique, de type s, soit anisotrope, de type d. Ces deux notions reviennent en théorie de l'information quantique, y compris dans la théorie des supraconducteurs.

Lors d'une intrication quantique, l'état quantique du premier qubit dépend de celui de l'autre qubit et vice versa. Dans le cas des qubits, l'intrication nécessite une manipulation afin que les éléments interagissent entre eux. Mais une fois établie, l'intrication demeure même en l'absence de toute interaction jusqu'à ce qu'une instabilité ou une perturbation extérieure modifie cet état.

De nombreuses méthodes permettent de créer des qubits. Dans beaucoup d'expériences (voir page suivante) on fait appel à des supraconducteurs. Grâce à cette technologie les qubits peuvent notamment être implémentés sur des circuit électroniques à semi-conducteurs fabriqués à partir des techniques empruntées aux circuits intégrés conventionnels.

Dans un ordinateur quantique les circuits sont macroscopiques (même s'ils ne mesurent parfois que 1 mm2) mais obéissent aux lois de la physique quantique, leur conception étant du domaine de la nanoélectronique quantique.

La porte logique quantique

Une opération mathématique repose sur un algorithme, une suite logique d'opérations élémentaires permettant de résoudre un problème. Cet algorithme peut être gravé dans un composant électronique qu'on appelle une porte logique. Leur combinaison permet de traiter des problèmes complexes. Le même principe s'applique au calcul quantique.

Au coeur d'un ordinateur quantique à semi-conducteurs, dans son processeur, tracé sur un substrat de silicium se trouve un composant supraconducteur fait d'aluminium, gallium ou niobium : la jonction Josephson, une porte logique quantique. Le qubit est généralement implémenté par ce composant.

Notons qu'un champ magnétique variable peut générer un courant électrique; c'est l'induction, un phénomène qui est utilisé dans les détecteurs quantiques.

La jonction Josephson est un convertisseur tension/fréquence à effet tunnel. C'est un inducteur non linéaire. A partir d'un niveau de tension appliqué à ses bornes il permet de créer une onde de fréquence déterminée. Ses propriétés dépendent de la matière constituant les semi-conducteurs.

La jonction Josephson est faite de deux métaux supraconducteurs séparés par une fine barrière isolante, en général une substance non conductrice, oxyde d'un des métaux d'une épaisseur de 1 nm (un millionième de millimètre).

A température normale, en appliquant une différence de potentiel on observe une augmentation du potentiel chimique d'un métal par rapport à l'autre et la création d'un courant. Mais lorsque l'un des métaux est supraconducteur et la température très inférieure à un seuil critique, tant que la tension appliquée n'est pas supérieure à une tension critique, les électrons apariés en paires de Cooper peuvent traverser la barrière isolante par effet tunnel sans développer de tension à ses bornes, les niveaux de Fermi des deux métaux s'égalisant.

Le supercourant est transporté par les états quantiques des paires de Cooper localisées au lien faible. C'est l'effet Josephson qui décrit le flot de supercourant à travers un lien faible entre les deux supraconducteurs.

Aux bornes de la jonction la fonction d'onde macroscopique (décrite par la théorie de Ginzburg-Landau sur les supraconducteurs) subit une différence de phase complexe.

Les qubits étant implémentés sur une combinaison de supraconducteurs de type s et de type d, une onde supraconductrice de type d ou d-wave apparaît d'un côté (côté "îlot" ou côté "berge") de la jonction Josephson et une onde supraconductrice de type s ou s-wave se forme de l'autre côté de la jonction Josephson.

En modifiant le dispositif (ajout d'une jonction Josephson, de transistors électroniques entre les îlots, etc) on peut influencer les probabilités d'effet tunnel entre les états fondamentaux et contrôler les intrications quantiques pendant que les états quantiques se modifient. Autrement dit, ce dispositif génère des qubits.

Lorsque les états quantiques ont évolué jusqu'à la fin du calcul et qu'il faut mesurer le résultat, étant donné qu'il est impossible de déterminer l'état d'un qubit (cf. le paradoxe du chat de Schrödinger), il faut trouver une méthode pour qu'il s'effondre sur l'un des états binaires classiques 0 ou 1 sans perdre l'information afin de pouvoir la lire.

Selon l'implémentation du qubit, plusieurs méthodes permettent d'observer les états quantiques macroscopiques et les mesurer.

Comment mesurer l'état d'un qubit ?

Pour concevoir des détecteurs capables de mesurer l'information que portent les qubits, nous devons tenir compte des paramètres du flux magnétique (intensité et distribution spatiale du champ électromagnétique) auxquels ils sont sensibles.

Il existe deux types de qubits :

- les qubits de phase : dont la phase (l'angle de phase entre le courant et la tension) est bien déterminée et la charge fluctuante

- les qubits de charges : dont la charge est bien déterminée et la phase diffuse.

A ne pas confondre avec l'expression "qubits de spin" qui est relative aux "points quantiques" (voir page suivante) représentés par l'état de spin d'un électron ou d'un noyau.

Physiquement, la mesure dépend de la façon dont le qubit est implémenté :

- particule à spin demi-entier : mesure de l'orientation du spin

- photon polarisé : mesure du plan de polarisation

- niveaux d'énergie d'un atome : mesure du niveau d'énergie.

Dans un détecteur de qubit à supraconducteur deux méthodes sont principalement utilisées pour mesurer ces valeurs macroscopiques, l'une basée sur des qubits de phase, l'autre sur des qubits de charges.

La première, intuitive, étudiée dès 2002 par Caspar van der Wal de l'Université de Groningen et Lin Tian du MIT notamment utilise un SQUID. Il s'agit d'un détecteur de champ magnétique très faible couplé à deux jonctions Josephson. Ce dispositif permet de mesurer la valeur des champs magnétiques d'un qubit de phase.

Le flux généré par le qubit change l’énergie Josephson du SQUID ce qui modifie sa caractéristique courant-tension. C'est la valeur du courant pour lequel apparaît une tension aux bornes du SQUID qui contient l’information sur l’état du qubit. Pour faire la mesure, on applique donc un courant dans le SQUID et on enregistre la valeur de ce courant lorsque le système passe à l'état résistif.

Dans ces conditions, les îlots se fixent, les transistors électroniques figent les jonctions dans des états ayant des moments magnétiques définis permettant la mesure; nous avons le résultat de notre calcul.

Expérience de couplage et de contrôle des états quantiques de deux qubits. A gauche, micrographies électroniques d'un circuit constitué d’un transistor à paires d'électrons de Cooper en parallèle à une boucle supraconductrice ayant deux jonctions Josephson (appelé SQUID et constituant un inducteur très fortement non linéaire). A gauche (a), le transistor montrant l'îlot supraconducteur connecté à travers deux jonctions au SQUID (Superconducting QUantum Interference Device, un magnétomètre) et la grille de contrôle des états de charge et (b) le circuit couplé avec le SQUID au centre et le transistor à gauche.

A droite, spectre d'énergie tension/fréquence du circuit couplé en fonction de la tension de grille. L'expérience est réalisées dans un cryostat à dilution à 30 mK. En ordonnée figurent les fréquences de transition résonante entre les niveaux et en abscisse la tension de grille. Le transistor supraconducteur peut contenir zéro ou une paire de Cooper. La quantité est contrôlée par une tension de grille extérieure. Le transistor est décrit par deux états quantiques différents notés |-> et |+> et constitue un bit quantique, appelé qubit de charge. Le SQUID peut contenir zéro ou une excitation élémentaire appelé plasmon et notées |0> et |1>. Il constitue lui aussi un bit quantique, appelé qubit de phase. Sur le graphique, lorsque les énergies des deux qubits sont égales à ng=1/2, la force du couplage entre les deux qubits provoque une intrication quantique maximale. Ce couplage entre les deux qubits est contrôlable. La ligne pointillée représente la théorie quantique sans couplage et la ligne continue en présence du couplage. Documents Institut Néel/CNRS.

La seconde méthode utilise les qubits de charges. L'une des approches étudiée dès 1998 par Alexander Shnirman et Gert Schön de l'Université Karlsruhe effectue la mesure du qubit grâce à un transistor à un seul électron (SET) dont il existe une version supraconductrice (SSET) développée en 1996 par A.Zorin du Laboratoire de Cryoélectronique de Moscou.

Dans un SET, la valeur logique du qubit modifie la tension appliquée sur l’île du transistor et affecte ainsi le courant. L'efficacité de ce détecteur n'est toutefois pas totale et des jonctions à effet tunnel doivent être ajoutées pour le rendre plus fiable.

Dans son état intriqué aucun des deux états quantiques ne possède de valeur binaire définie. Mais dès l'instant où la valeur du premier bit est déterminée, la valeur du second bit l'est également.

Bien que ce phénomène soit incompréhensible, force est de constater que cet effet se propage instantanément quelle que soit la distance séparant les deux qubits et la nature du milieu de propagation; l'effondrement de la fonction d'onde est immédiat et non-local.

En 2008, le physicien Nicolas Gisin et ses collègues de l'Université de Genève ont démontré que cette connexion instantanée s'établissait à une vitesse supérieure à 10000 fois celle de la lumière !

Toutefois rien ne prouve ou n'infirme qu'il y ait transmission d'information durant ce changement d'état et le théorème "no go" de non-communication - selon lequel le transfert instantané d'information entre deux observateurs est impossible - n'a toujours pas été invalidé.

Stabilité des qubits

Un qubit est une entité très fragile. N'existant qu'à l'échelle atomique, il suffit d'un peu d'agitation thermique (quelques microKelvin), d'un choc sur une molécule d'air, d'une collision sur un photon aléatoire ou dans un champ magnétique pour que le qubit s'effondre et que la cohérence disparaisse et avec elle le résultat de l'expérience ou du calcul. Autrement dit, dans un ordinateur quantique les qubits doivent être protégés des influences du monde extérieur au risque de se décomposer instantanément sans qu'il soit possible de connaître le résultat de la moindre opération.

Les circuits supraconducteurs sont basés sur la jonction Josephson à effet tunnel, le seul élément de circuit non-dissipatif et fortement non linéaire disponible à basse température.

Par comparaison avec les entitées microscopiques tels que les spins ou les atomes, les qubits ont tendance à bien se coupler à d'autres circuits ce qui permet de les utiliser pour effectuer des lectures numériques et implémenter des portes logiques quantiques et donc d'effectuer des opérations.

Combien de temps peut vivre un qubit avant de s'évanouir ? La question est pertinente car de leur stabilité dépend la possibilité ou non de les manipuler et d'effectuer des calculs. Selon les méthodes couramment utilisées et sur lesquelles nous reviendrons, les qubits peuvent rester cohérents entre quelques millisecondes et quelques secondes. Or en quelques millisecondes un processeur peut effectuer des millions d'opérations !

Dans le cas des qubits supraconducteurs, le temps de relaxation de l'énergie dépend des pertes diélectriques, de l'état d'équilibre des quasiparticles, de la charge et des parasites et peut varier entre quelques nano et plusieurs microsecondes selon le type de qubits, la matière et le layout.

Très récemment de nouvelles méthodes basées sur des circuits multi-jonctions ont résolu le problème de l'isolation vis-vis des perturbations électromagnétiques.

La spectroscopie des qubits révèle des couplages dits "TLSs" (Two-Level Systems ou systèmes décrits uniquement par deux niveaux d'énergie) dans la couche d'oxyde du circuit qui conduit finalement à la décohérence des qubits. Bien que la nature physique des TLSs soit encore débattue, il est bon de savoir que leur nombre diminue en fonction de la taille des jonctions Josephson et leur densité.

Il existe d'autres méthodes pour créer des qubits, notamment à température ambiante, ce qui évite les contraintes et les problèmes des méthodes requérant de très basses températures.

Mais dans tous les cas, les propriétés des qubits restent très fragiles et leur cohérence doit absolument être contrôlable et fidèle à 100% si les chercheurs envisagent de fabriquer un ordinateur quantique fiable et performant.

Comment corriger une erreur arbitraire ?

Jusqu'à présent nous n'avons considéré que des qubits "physiques". Suite à une manipulation ou une perturbation accidentelle, leurs états quantiques peuvent interagir avec l'environnement et soit donner un résultat erroné soit conduire à la destruction de l'information et du processus de calcul.

Des protocoles dit de purification de l'enchevêtrement (EPP) utilisant une communication classique et des codes de correction d'erreur quantique (QECC) ont été mis au point.

De manière générale, un système de correction d'erreur doit réagir avant qu'une seconde erreur ne surgisse. La bonne nouvelle est qu'il peut s'appliquer lors de la mesure, c'est-à-dire à la fin du calcul. Il doit donc s'appliquer à des ensembles de qubits formant un qubit logique encodé.

Ainsi que l'a démontré David DiVincenzo d'IBM et ses collègues du Caltech en 1996, le système de correction le plus efficace, offrant la taille minimale pour un code capable de détecter et corriger une erreur arbitraire sur un qubit physique consiste à encoder cinq qubits qui protègent un qubit encodé d’une erreur arbitraire.

Si techniquement la méthode est complexe, il faut retenir que les états encodés sont intriqués et donc aucun qubit physique ne contient d’information sur l’état original. Cette information se trouve dans les superpositions d'états non-locales entre qubits physiques. Cela signifie qu'une erreur sur un qubit physique du code ne produit pas de perte d’information qui reste quelque part dans l'intrication jusqu'au moment où le résultat est mesuré.

Deuxième aspect important, la mesure du syndrome (les éventuelles perturbations sur les qubits auxiliaires utilisés par le QECC) ne fournit aucune information sur l’état du qubit encodé mais uniquement sur l’erreur survenue. La mesure des qubits auxiliaires ne perturbe donc pas l’information..

Gérer la décohérence

Nous savons combien il peut-être difficile de contrôler un comportement quantique gouverné par les lois d’une logique probabiliste qui nous échappe.

Un qubit présente un état cohérent, c’est-à-dire qu’il présente les deux états quantiques possibles simultanément : c’est l'intrication quantique. Mais aussitôt que l’évènement n'est plus isolé et interagit avec l’environnement, il “décohère” et tombe dans l’un des deux états classiques.

Ce changement d’état quantique représente un obstacle majeur pour la fabrication d’un ordinateur quantique car cela signifie que la puissance potentielle de cet ordinateur dépend des propriétés de parallélisme présentes dans l’état d’intrication quantique.

Non seulement les physiciens doivent supprimer les interférences qui nuisent à la précision des résultats mais il doivent surtout préserver les qubits pour éviter l’arrêt ou plutôt le “plantage” du calcul quantique.

Pendant plus de dix ans, les physiciens ont cherché une solution à ce problème, se demandant comment fabriquer un ordinateur quantique quand on sait que le fait de regarder un qubit provoque sa décohérence. Les voies de recherches étant aussi nombreuses qu'incertaines, certains physiciens cherchent encore la solution.

Le dilemme à résoudre était et reste le suivant : comment préserver la cohérence des qubits tout en injectant des données dans le système et en mesurant le résultat ? Ces interventions du monde extérieur doivent théoriquement détruire les qubits puisqu'ils ne sont plus isolés de l'environnement au moment du contrôle...

Pour résoudre ce problème, les chercheurs ont eu l'idée géniale de placer les qubits dans un milieu protégé : au coeur de l'atome, dans son noyau. Nous savons que chaque noyau est protégé des perturbations extérieures par son enveloppe d'électrons en mouvements qui agit comme une véritable barrière électromagnétique. Ce milieu représente un environnement isolé sur lequel on peut agir.

Concrètement, si on piège un électron ou un noyau et qu'on parvient à manipuler son spin, il va garder cet état quantique des heures, des jours voire des milliers d'années dans certains cas. Les physiciens tenaient l'une de leurs solutions : les pièges à électrons, optique ou à semi-conducteurs.

Eviter de perdre l’information

Emission thermique d'un processeur rapide conçu par Sierra Pacific. Evitez de le toucher lorsque l'ordinateur fonctionne car sa température peut atteindre 95°C ! Doc SPC.

Aujourd’hui l’un des problèmes majeurs de l’informatique est la dissipation de chaleur par les composants. Dans un ordinateur en fonctionnement, la température des processeurs atteint 80°C et même 95°C dans le cas d'un processeur graphique ! Pour éviter qu'ils ne surchauffent ils doivent être refroidis (ventilés ou par circulation d'un bain d'huile) au risque de "planter" l'ordinateur.

L’ordinateur quantique présente un problème similaire bien que son origine soit différente. Les physiciens sont d’avis que les ordinateurs quantiques ne présentent pas réellement de limites, ni en vitesse de calcul, ni en capacité mémoire ou en fiabilité, ce qui est une avancée prodigieuse par rapport à la technologie actuelle.

En revanche, un autre problème surgit : éviter de perdre l’information en cours de calcul. Les physiciens considèrent que pour fonctionner le plus rapidement possible, les opérations effectuées par un ordinateur quantique doivent être réversibles : les données entrées doivent par exemple être déductibles des résultats. Un calcul irréversible signifie une perte d’information qu’on peut assimiler à une dissipation de chaleur dont l’effet limitera les performances de l’ordinateur.

Prenons un exemple avec un circuit logique et un calcul booléen. Une porte logique AND présente deux entrées pour une sortie (si les entrées A et B sont à 1 alors la sortie S = A&B = 1), ce qui signifie qu’un bit d’information a été perdu au cours de la sommation. Il faut donc trouver un moyen de fabriquer des portes logiques réversibles et plus généralement découvrir une méthode afin que l'information véhiculée par un signal à support borné non modifiée par l'opération d'échantillonnage (théorème de Shannon) soit réversible.

Portes logiques et universalité

La porte de Toffoli CCNOT

En 1973, Charles H. Bennett d’IBM démontra qu’il était possible de fabriquer un ordinateur universel, la fameuse machine de Turing, en utilisant uniquement des portes réversibles. En exprimant un programme en terme d’opérations sur des primitives réversibles il prouva que le traitement n’était pas significativement plus lent. Cela aboutit à la porte de Toffoli dont les entrées sont entièrement déductibles des sorties; c'est une porte réversible universelle.

Notons que le signe représente une addition modulo 2 (par exemple : 11 = 0) qui correspond à une porte logique XOR.

La porte de Toffoli est une porte NOT à double contrôle, également appelée CCNOT. Si la plupart de ces circuits sont transistorisés et adaptés à la manipulation des bits conventionnels, nous avons expliqué que les propriétés quantiques requièrent des portes logiques quantiques. La jonction Josephson et le piège à ions par exemple compte parmi celles-ci. On y reviendra.

Le paradigme Standard

Le "paradigme Standard" du calcul quantique a été énoncé par David DiVincenzo d'IBM en 2000 et constitue les "critères de DiVincenzo". Il s’agit de cinq critères de base qu’un ordinateur quantique doit satisfaire :

1. Qubits : L’espace d’Hilbert doit pouvoir être partitionné en un produit de n systèmes à deux niveaux. En d’autres mots, il doit y avoir des qubits.

2. Initialisation : Il doit être possible d’initialiser le registre quantique dans un état connu, souvent choisi comme |0>.

3. Calcul : Il doit être possible d’appliquer un ensemble universel de portes logiques sur le registre.

4. Cohérence : L’interaction entre les qubits et leur(s) environnement(s) doit être suffisamment faible de sorte qu’il soit possible de maintenir la cohérence tout au long du calcul.

5. Mesure : Chaque qubit doit pouvoir subir une mesure projective et la valeur du bit classique qui en résulte doit être obtenue avec une grande efficacité.

Des travaux ultérieurs ont toutefois démontré que ces critères peuvent être assouplis.

Si on respecte ce paradigme, cet ensemble universel correspond à l’évolution unitaire contrôlée du système quantique jusqu’à l’état final qui, une fois mesuré, sera la réponse au calcul.

Dans un ordinateur classique, les portes logiques NOT et NAND appliquées sur un ensemble de bits permettent de réaliser n’importe quel calcul classique. Elles forment donc un ensemble universel (complet) pour le calcul classique tel que l'a décrit Richard Feynman dans ses "Lectures On Computation".

Pour le calcul quantique, il faut également définir un ensemble universel.

Comme dans le cas classique, il existe plusieurs ensembles universels. Le plus utile est formé par une porte logique non-triviale (capable de créer une intrication) à deux qubits et toutes les portes à un qubit.

Parmi les portes à un qubit citons la CNOT qui a pour action d’inverser la valeur du second bit (bit cible) si le premier (bit source) est dans l’état |1>.

Pour réaliser une opération à deux qubits, un CNOT par exemple, une interaction entre qubits est nécessaire. Les expériences sur lesquelles nous reviendrons ont démontré que cette interaction intervient en RMN à état liquide, dans certaines architectures à qubits supraconducteurs et à diamants dopés notamment.

La thèse de Church-Turing

Avant d'aborder la fabrication d’un ordinateur quantique, faisons une digression passionnante qui va rapprocher l'ordinateur quantique des concepts de la cybernétique et révéler tout son potentiel.

Parmi ces concepts, en 1982 Richard Feynman découvrit le moyen de fabriquer une machine de Turing simulant ou plutôt copiant le comportement de n’importe quel objet physique. Il confirmait la thèse de Church-Turing stipulant : “il existe ou on peut fabriquer un ordinateur universel programmable afin de réaliser toutes les tâches informatiques pouvant être réalisées par n’importe quel objet physique”.

En 1984, David Albert découvrit qu’en décrivant un automaton quantique capable de s’auto-mesurer, son système était capable d’effectuer des tâches qu’un ordinateur classique ne pouvait pas simuler. Son automaton pouvait acquérir une information subjective de lui-même qu’il était absolument impossible de mesurer depuis le monde extérieur.

En 1985, le physicien théoricien et philosophe David Deutsch de l'Université d'Oxford et aujourd'hui chez Qubit fit la découverte théorique la plus importante à ce jour. Il publia un article fondateur prouvant que les capacités de calculs de n’importe quel machine finie obéissant aux lois de l’informatique quantique étaient contenues dans une seule machine, l’ordinateur quantique universel

Cet ordinateur pouvait être élaboré à partir de l’équivalent quantique des portes de Toffoli auxquelles seraient adjointes quelques opérations supplémentaires afin que les superpositions linéaires d’états |0> et |1> transforment cette machine en un véritable ordinateur quantique complet, universel.

La découverte de Deutsch implique une légère altération de la thèse de Church-Turing : “il existe ou on peut fabriquer un ordinateur quantique universel programmable afin de réaliser toutes les tâches informatiques pouvant être réalisées par n’importe quel objet physique”.

Le problème de la conscience

Les travaux théoriques parfois confirmés par l'expérience nous font prendre conscience que l'ordinateur quantique présente d’intéressantes implications dans le monde de l’intelligence artificielle.

Depuis l’avènement de la technologie, certains inventeurs ont voulu doter leur robot d’intelligence artificielle ou ont cru qu’ils étaient dotés de conscience sur base de principes philosophiques. Depuis les débuts timides de la "bête-machine" de Descartes, l'intelligence artificielle à fait des pas de géant et les robots d'aujourd'hui sont capables d'évoluer sans craindre d'être déséquilibrés ou être à court d'énergie. Mais ce sont pas pour autant des Cyborgs qui restent du domaine de la science-fiction malgré la bionique envahissant de plus en plus notre quotidien.

Si nous regardons des créatures artificielles telles que les robonautes de la NASA, Asimo d'Honda ou COG du MIT, il est parfois difficile de faire la part des choses, de savoir ce qui est programmé de ce qui est acquis, où est le réflexe et la conscience... simulée. A les voir répondre logiquement à des actions non préméditées ou se regarder dans la glace, tout le monde s’est un jour demandé si finalement ces robots n’avaient pas quelque peu conscience d’eux-mêmes. Leur créateur en tout cas aimerait le croire. Mais au vu des grossières erreurs d'appréciation que ces robots font encore, il ne fait aucun doute qu'ils sont dépourvus de la plus élémentaire conscience.

Certaines personnes considèrent même que l’esprit humain est capable de réaliser des actions impossibles à réaliser par une machine de Turing. Le débat est loin d’être clôturé.

Dansun ordinateur quantique le problème de la conscience prend une toute autre dimension. Si on pousse jusqu’au bout la thèse de Church-Turing, il faut admettre que tout objet, de la pierre à l’Univers considéré dans son ensemble peut être considéré comme un ordinateur quantique et que chacun des processus physique identifiable peut être considéré comme le résultat d’un calcul.

Toutefois Kurt Gödel était convaincu que le cerveau humain n'était pas une machine de Turing, ce que son théorème d'incomplétude est venu soutenir.

Partant de là, si on pouvait assimiler le cerveau humain à un ordinateur effectuant des calculs, la conscience en serait alors le résultat. La thèse de Church-Turing nous permet alors d’avancer une idée très hardie qui relève actuellement plus de la science-fiction que de la mathématique : en supposant qu'il soit possible de modéliser le fonctionnement du cerveau par un machine de Turing, il serait possible de simuler la pensée rationnelle consciente en utilisant un ordinateur quantique. Reste à le démontrer et ce sera peut-être l'histoire de toute une génération de chercheurs.

Si les ingénieurs du MIT ou de Qubit pensent qu’il est possible de résoudre le problème de l’intelligence artificielle, certains physiciens tel Roger Penrose de l’Université d’Oxford pense que la conscience est tellement complexe qu’elle requiert une physique beaucoup plus exotique et encore inconnue. Décidément, nous sommes encore loin de la solution. Essayons malgré de faire un peu avancer le débat.

Prochain chapitre

Fabrication d’un ordinateur quantique

Page 1 - 2 - 3 -


Back to:

HOME

Copyright & FAQ