Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

L'ordinateur du futur

8. L'ordinateur quantique (III)

A plus long terme, l'ordinateur quantique constituera une véritable révolution pour les ingénieurs et les laboratoires de recherches. De quoi s'agit-il ?

Nous savons qu’un ordinateur classique traite des informations élémentaires, des bits, qui ne peuvent présenter qu’un parmi deux états ou valeurs possibles : 0 ou 1. C’est le langage binaire.

Avec 4 bits, un ordinateur classique peut traiter un état parmi 24 soit 16 états différents : 0000, 0001, 0010, 0011, etc. Dans notre exemple, l’avantage de l’ordinateur quantique est de pouvoir traiter simultanément les 16 états.

On ne parle plus de bits mais de bits quantiques ou qubits en abrégé (de l'anglais “quantum bits”. Des ordinateurs quantiques équipés de processeurs de N qubits permettent donc de gérer 2N informations différentes simultanément ! Ils calculent donc N fois plus vite qu’un ordinateur classique puisqu’ils sont capables d’effectuer ces calculs en parallèle ! Le nombre de qubits augmente donc de manière exponentielle la puissance du travail en parallèle.

A gauche, les Drs Isaac Chuang et Costantino Yannoni du MIT manipulant des éprouvettes contenant des molécules organiques. Aussi étonnant que cela soit, elles constituent le coeur de leur ordinateur quantique à RMN à état liquide qui peut se réduire à une seule molécule et ses qubits représentés par les noyaux atomiques contenus dans la molécule ! A l'arrière-plan le cylindre métallisé du système à RMN constitué d'un aimant à supra-conducteur plongé dans un dewar contenant de l'hélium liquide à -269°C. A droite, deux ions de baryum au repos contenant chacun un seul qubit sont maintenus séparés par un rayon laser refroidit près du zéro absolu afin d'étudier la durée du phénomène d'intrication quantique. Doc IBM.

L'une des applications les plus prometteuses est la communication quantique. Imaginons qu’un pirate intercepte un message quantique sur une ligne puis le retransmette au destinataire. En fait rien qu’en regardant le message, il altère son contenu puisqu’il s’agit d’un système quantique en superpositions d’états. Il est donc obligé de le retransmettre comme si de rien n’était. Erreur, le piratage est déjà enregistré car l’information que le destinataire recevra contiendra un pourcentage d'erreur très supérieur à la moyenne.

Le pirate ne peut pas non plus renvoyer son propre message à la place de l’original puisque les vérifications effectuées par l'émetteur et le destinataire indiqueront que le message n'est plus identique au message original. Quoique fasse le pirate, les deux interlocuteurs sauront que leur ligne a été mise sur écoute. 

Bien sûr cette méthode ne fonctionne que si le bruit sur la ligne de transmission est négligeable. Actuellement, British Telecom teste une ligne quantique présentant 9% d’erreurs (et donc autant d'actions indiscrètes possibles) sur une distance de 10 km.

 L'ordinateur quantique à semi-conducteurs et scalable "D-Wave 2" de 512 qubits fabriqué en 2013 par D-Wave Systems.

Quel est le temps d'exécution d'un ordinateur quantique ?  Pour qu’un ordinateur quantique exécute une tâche plus rapidement qu’un ordinateur classique, il faut exploiter sa puissance de calcul en parallélisme quantique et réécrire les programmes pour cette technologie. Ces algorithmes sont difficiles à élaborer et on peut les compter aujourd’hui sur les doigts d’une main, parmi lesquels l’algorithme de Shor et celui de Grover.

Si un programmeur utilise l’un de ces deux algorithmes sur un ordinateur quantique, il aura à peine le temps de s’asseoir pour apprécier son étonnement devant la vitesse d’exécution de son programme ! En effet, on a estimé qu’un ordinateur classique requiert 10 millions de milliards de milliards d’années pour factoriser un nombre constitué de 1000 chiffres. En appliquant l’algorithme de Shor, notre programmeur obtiendra son résultat en… 20 minutes !

Aujourd’hui nous sommes loin de pouvoir gérer des milliers de qubits et les ordinateurs quantiques les plus puissants travaillent au mieux avec 16 qubits, l’équivalent d’un processeur de 16 bits mais massivement parallèle. 

Des tests de calculs effectués en 2013 sur l'ordinateur quantique D-Wave Two de 512 qubits indiquent qu'il réalise certaines opérations 3600 fois plus rapidement que l'ordinateur IBM classique le plus rapide. Ses performances sont toutefois optimisés pour une opération mathématique très particulière qu'on appelle l'optimisation discrète.

Alors que les projections l'avaient annoncé pour 2015, D-wave Systems annonça début 2017 la livraison des premiers calculateurs quantiques cryogéniques de 2000 qubits refroidit à 0.015 K tandis que des systèmes de 4096 qubits pourraient voir le jour vers 2019 et des systèmes de 10000 qubits vers 2020 ! Même si les registres individuels géreront sans doute dix fois moins de qubits, la percée technologique est en route.

Malgré les nombreux défis que nous réserve encore cette technologie en constante évolution, l’ordinateur quantique nous promet de nous affranchir de la lenteur des systèmes conventionnels en nous offrant une puissance de calcul et un temps d’exécution inimaginables jusqu’à présent. Avec lui vient toute une nouvelle théorie quantique de l’information qui nous laisse encore songeur.

Dans ce contexte très original, l’ordinateur quantique devient théoriquement capable de simuler une infinité de processus physiques et il cache peut-être dans ces circuits atomiques le secret de la création de l’ordinateur quantique universel.

Selon les consultants de Market Research Media, le marché de l'informatique quantique augmente d'environ 10% par an et représentera 26 milliards de dollars entre 2015 et 2020.

Devant de telles avancées, on comprendra que celui qui profitera le plus de cette nouvelle informatique est encore l'enfant à naître. Il connaîtra toutes les déclinaisons de l'ordinateur multimédia : souple ou rigide, mobile ou de bureau, mural ou de table, à circuits intégrés, optique ou quantique, utilisera de la manière la plus banale les technologies sans fil à très hautes fréquences, la reconnaissance vocale, les commandes mentales, les écrans tactiles et les systèmes de projection holographiques. A terme, les passionnés partageront leur savoir avec des robots domestiques. Et ce n'est pas de la science-fiction puisque dans chacun de ces domaines des prototypes existent déjà !

9. La mémoire ADN

Comment gérer les Big Data tout en ayant la garantie de pouvoir relire les données dans 10 ou même 100 ans voire bien plus tard ? Chaque jour, les laboratoires de recherches et autres centres scientifiques transmettent des milliers de terabytes de données que nous sauvegardons actuellement sur disques durs à plateaux conventionnels (HDD) ou mieux dans des mémoire flash (SSD) dans d'immenses data centers climatisés. L'archivage est également réalisé sur des tapes magnétiques de haute densité (le record détenu depuis 2014 par la cassette de 185 TB de Sony), beaucoup plus fiables que les disques durs et qui offrent la garantie de pouvoir être relues dans le futur sans contrainte particulière.

Mais à l'avenir, dans un délai d'un siècle, toutes ces technologies sont vouées à disparaître car trop énergivores, trop encombrantes, très lentes et fragiles comparées à d'autres moyens de stockage. L'obsolescence de ces supports dont l'origine remonte aux années 1950 est pour ainsi dire programmée dans leurs circuits ou leur support.

Même le CD jugé révolutionnaire en 1982 dont le film binaire est emprisonné entre deux feuilles de plastique est un support instable et peu fiable. En effet, des tests ont montré qu'au bout d'un an, l'information ne pouvait plus être lue dans 15 % des cas. Soit des poussières prisonnières lors de la fabrication ont dégradé irrémédiablement le support, soit l'encre utilisée pour imprimer l'étiquette a pénétré le support et dégradé l'information. Quant au 85 % des CD ayant résisté au temps, ils vieillissent mal et peuvent se dégrader au bout de 20 ans. On ne peut donc pas utiliser le CD comme support fiable des archives en espérant qu'ils seront encore lisibles dans trois mille ans comme le sont les hiéroglyphes. Faut-il pour autant revenir à la roche taillée ?

On a bien essayé de remplacer ce support optique instable par le verre le plus stable et le plus fiable qui est le quartz. Cela fonctionne très bien car le quartz résiste à l'abrasion, au feu (1000°C), à l'acide (HCL) et au choc thermique. Il est inaltérable pendant des millions voire des milliards d'années. Seules difficultés, actuellement la capacité d'un disque en quartz ne dépasse pas celle d'un disque Blu-ray et la technologie d'impression requiert un laser phemtoseconde et donc une technologie excessivement complexe et chère. Or les centres de recherches produisent des millions de CD ou leur équivalent Blu-ray chaque jour. Cette technologie n'est donc pas adaptée aux Big Data. On pourra juste se servir de ce support en quartz pour par exemple étiquetter les zones de stockage des déchets nucléaires afin d'avertir les archéologues du futur du danger qu'ils représentent.

Par quoi peut-on remplacer ces support magnétiques ou optique, y compris les disques SSD, les clés USB, les bandes magnétiques digitales, les CD et les disques Blu-ray ? Par des mémoires ADN (d'acide désoxyribonucléique). En effet, nous savons que l'ADN est le support de notre patrimoine génétique. Il peut construire des messages aussi longs que nécessaire à partir des quatre bases ou nucléotides : l'adénine (A), la thymine (T), la cytosine (C) et la guanine (G). Lors de la réplication, la cellule s'assure grâce à un système complexe de corrections d'erreurs que les milliards de données qu'elle abrite restent dans un état aussi fidèle que possible à l'original au risque de créer de sérieux handicaps et de déclencher des maladies incurables chez son propriétaire. Ce système de duplication et de préservation de nos données est extrêmement efficace et résistant.

Nous savons également que le processus épigénétique de méthylation de l'ADN qui touche l'expression des gènes permet aux cellules de conserver la mémoire de l'hérédité et intervient dans la mémoire à long terme.

En étudiant ces processus, des chercheurs de la startup californienne Twist Bioscience en collaboration avec Microsoft ont imaginé la possibilité de sauver nos informations dans des brins d'ADN, réputés pour leur fiabilité à long terme. Et cela fonctionne !

En bref, lors d'un essai réalisé en 2012, une équipe de chercheurs de l'Université d'Harvard dirigée par George Church a stocké un texte de 53426 mots et 11 illustrations sous forme de fragments d'ADN. Sachant que chaque lettre de l'alphabet est traditionnellement codée par 8 bits soit un octet ou byte, ces lettres furent traduites dans le langage de l'ADN. Ainsi, les 0 du langage binaire ont été indifféremment codés à partir d'une base A ou C, tandis que les 1 se sont vu attribués les bases G et T. Au final, huit bases furent nécessaires pour coder une lettre. Ainsi la lettre "A" qui se code en binaire par la suite des chiffres "01000001" correspond en langage ADN à la séquence "AGCCACAT" ou "CTAACACG". On peut ainsi encoder tout un livre de 650 KB dans une molécule d'un milliardième de gramme d'ADN. On peut aussi doubler la capacité de stockage en assignant une valeur différente à chaque base.

Selon les chercheurs d'IBM, 1 mm3 d'ADN peut stocker 1 exabyte soit 1 milliard de gigabytes de données. L'avantage est que toutes les connaissances du monde pourraient tenir dans 2 m3 d'ADN, chaque utilisateur n'ayant qu'à placer quelques éprouvettes d'ADN sur son bureau pour accéder aux connaissances de tout un data center ! Bien sûr, il faut prévoir toute la machinerie de traduction et de lecture. Autre avantage, notre ADN étant notre bien le plus précieux, il n'y a aucun risque que nous ne puissions plus lire ces mémoires ADN. En effet, tous les trois ans environ, un nouveau système de lecture de l'ADN est mis sur le marché.

Si tout cela est encore à l'état de la recherche fondamentale, les premiers résultats sont encourageants et laissent entrevoir des révolutions technologiques au cours des prochaines générations, y compris dans le domaine de l'informatique quantique.

Que nous réserve l'armée américaine ?

Avec un budget de plusieurs dizaines de milliards de dollars alloué chaque année au Ministère de la Défense américain (DoD), sans compter un budget équivalent accordé aux universités, il est évident que les laboratoires de recherche de l'Armée américaine (LANL et autre DARPA) et les contractants travaillant à leur service sont aux avant-postes de la recherche appliquée et des innovations les plus spectaculaires.

Chacun sait que la "grande muette" travaille sur de nombreux projets top secrets en collaboration avec l'industrie; rappelez-vous par exemple les projets Manhattan (bombe atomique, 1945), Orion (vaisseau interstellaire, 1958), ARPANET (1969), les premiers drones utilisés durant la guerre du Viêt Nam (1959-1975), le réseau GPS (le premier satellite fut lancé en 1978), le projet de "bouclier spatial" (Strategic Defense Initiative, ~1980), le programme d'espionnage Echelon, les robots autonomes ou encore l'ordinateur quantique.

Le canon laser chimique fabriqué par Boeing en 2008. Fonctionnant comme une tourelle, il se place dans le nez d'un avion C-130 ou d'un B-747.

Parfois même, comme ce fut le cas avec le programme Aurora d'avion furtif (1987), le Gouvernement n'était même pas au courant de l'existence de ce programme développé sur des fonds cachés ! Mais quand bien même le programme est rendu public par le Sénat, c'est à peine si le projet de loi éclaire les spécialistes.

En effet, il faut souvent attendre la phase d'essai en vol et donc l'annonce publique officielle pour que l'armée dévoile son invention.

Qu'il s'agisse d'un dispositif d'aide à la décision, d'une arme tactique ou d'un projet stratégique global, étant donné que par nature personne n'a jamais entendu parlé de ces projets avant leur déploiement, leur découverte fortuite ou leur annonce publique est souvent surprenante et en déroute plus d'un.

A chaque fois on se dit que ces projets ou ces appareils sont en avance sur leur temps ! Et de fait, il faut souvent une dizaine d'années voire une génération pour que les autres pays s'équipent en moyens similaires, quand ils en ont les moyens.

Ainsi, en 2007 le public découvrit l'existence de robots-insectes dans le ciel de Washington, une technologie qui vient compléter les drones et autres robots déjà utilisés par beaucoup d'armées.

En 2008, le Sénat américain a demandé aux industries américaines de s'intéresser d'un peu plus près au canon laser tactique (ATL). Le projet ATL de Boeing est quasi opérationnel. En 2014, la Navy devrait déployer son laser portable LaWS dans le Golfe Persique.

L'USAF travaille également avec l'industrie pour mettre au point des systèmes de pilotage automatique contrôlés par l'intelligence artificielle. Elle a déjà annoncé que d'ici 2020 ses bombardiers et chasseurs de nouvelle génération seront équipés d'IA et d'ici 2040 tout son arsenal (avions et véhicules) en sera équipé et pourra même être contrôlé à distance !

Enfin, de son côté l'Armée de terre américaine évalue les moyens de transformer ses soldats en télépathes. En collaboration avec le College Medical d’Albany de l'Université d'Etat de New-York notamment, les chercheurs développent un casque fonctionnant comme une interface portable entre la pensée et la machine.

Aussi improbable que cela paraisse, la "télépathie synthétique" ainsi que se nomme cette science est sur le point d’arriver sur le champ de bataille !

En effet, selon le Dr Gerwin Schalk, en 2025 les Forces spéciales pourront capturer leurs ennemis en communiquant et coordonnant leur opération sans faire le moindre signe et en silence. Un peloton d'infanterie pourrait par télépathie appeler un hélicoptère pour secourir des blessés au milieu d'un échange de tirs nourris, là où les ordres verbaux seraient impossibles à transmettre dans le vacarme des explosions.

A lire : L'US Army va transformer ses soldats en télépathes (sur le blog, 2012)

Si vous alliez l'informatique à la cybernétique, la médecine aux neurosciences, à la technologie laser, au GPS, à la nanotechnologie et aux métamatériaux, essayer d'imaginer quels genres de projets le DARPA, les universités et les industriels peuvent mettre au point. Cela va des robots bâtisseurs aux soldats télépathes rampants ou volants en passant par toute une série de domaines touchant l'armement, la surveillance, l'identification y compris des individus (des terroristes notamment) jusqu'aux inventions domestiques les plus diverses qui peuvent en découler comme de nouvelles matières ou des accesoires de haute technologie plus performants.

Ce que nous en savons concrètement et décrit dans ces pages et d'autres articles (cape d'invisibilité, exosquelette, arme magnétique, etc) ne sont que des projets aboutis et le sommet de l'iceberg. Ils nous annoncent un futur très différent de celui qu'ont connu nos grands-parents.

En guise de conclusion

Cette revue nous a fait découvrir l'éventail des tendances informatiques qui s'annoncent à l'horizon de quelques décennies sans pour autant fixer une date déterminée. "Le futur est toujours conditionnel" disait Jean Cocteau mais nous réservera sans nul doute bien des surprises. Et c'est tant mieux car il suscitera encore longtemps l'imagination des jeunes chercheurs pour les innovations technologiques.

Certaines applications informatiques nous ont également fait prendre conscience de leur pouvoir et de la nécessité de les encadrer dans une éthique compatible avec les exigences morales d'une société démocratique. Si nous voulons préserver notre identité, notre liberté et notre confort, veillons également à rendre ces révolutions aussi naturelles que possible.

Ainsi qu'on le constate, une fois de plus la technologie de l'information tire ses tentacules jusque dans notre vie privée. Faisons seulement attention que dans ce monde immatériel où les puces feront partie du paysage et où les technologies seront transparentes et plus faciles à utiliser, le progrès nous laisse encore la liberté de vivre et de décider en âme et conscience comment exprimer notre personnalité.

Pour plus d'informations

Sur ce site

Les technologies du futur

La loi de Moore

Tablette et Web 3.0

Second Live

Internet pour le meilleur et pour le pire

Les robots au service des hommes

Des robots-insectes dans le ciel

Fictions, AI et futurologie

Paleofuture, blog de Matt Novak

AI Magazine, AAAI

Analog Magazine

SFE - The Encyclopedia of Science-Fiction

Informatique

D-wave Systems

TOP500 (les superordinateurs les plus puissants)

IBM Research (blog)

Watson : IBM, IBM presskit, Forbes, Jeopardy

Mira : ANL.gov, Phys.org, engadget

Curie : CEA

Future Technology, About.com

Emissions TV et Podcasts

Futuremag, Arte Future, ArteTV

Du mode d'existence des objets techniques, Gilbert Simondon, France Culture, 2013

Sur Internet

Foresight 2100

The Digital Universe in 2020, IDC (rapport), 2012

Internet of Things by 2020, Gartner, 2013

Disrupting Technologies (2025), McKinsey, 2013

The Evolving Internet (2025), Cisco, 2010

Future for all

Oled info

DARPA Innovation Information Office (IO2)

ALON (métal transparent)

CILAS (céramique de YAG)

Future Technology, SpaceRef

The Quest for Telematics 4.0, Ernst & Young, 2014

AITopics (AAAI)

BBC Future

Wired (Danger Room)

GRAF-TECH

Damar (Océalis, Thermolactyl)

Lumus (lunettes HUD)

Lentille de contact iOptik de Innovate

Sematech

British Inventors Society

Living Tomorrow

The Da Vinci Index, PBEI

engadget

Gizmodo (US)

En vidéo, le futur imaginé par les constructeurs

iOptik - a glimpse into the future, Innovate, 2013

Samsung concept video for wearables and phones, 2013

Introducing TF-X: Terrafugia's Vision for the Future, 2013

2025 The Future of ICT, NTT, 2013

Technology in 2019, Microsoft, 2013

Microsoft's Productivity Future Concept, iConcept, 2012

Volkswagen concept car in China, 2011

Nokia Kinetic device demo, 2011

Productivity Future Vision, Microsoft, 2011

Cisco Videoscape All Together, 2011

Cisco The Future of Teaching, 2011

Cisco Telepresence Vision: Future Technology, 2010

Intel Retail Interactive Fashion Experience, 2010

The Tomorrow Project and Futurism at Intel, 2010

Nokia in 2015 - The Way We Live Next, 2009

Intel Future Vision, 2007

Apple's Future Computer, 1990

Apple's Future Computer, 1988

Vidéos sur l'origine et l'avenir des technologies

Le Dessous des Cartes en l'an 3000

Le monde en 2057, Gruppe 5 Filmproduktion, 2007

Le monde en 2050, Bavaria Film/Deutsche Post DHL, 2012

Future Technology (2020)

Les progrès de la médecine d'ici 2030, TDW, 2014

Quel monde en 2030 ? Les pronostics de la CIA

The World in 2030, Michio Kaku

Histoire de la voiture électrique

Le robot Asimo de Honda, Honda

Massive Open Online Courses, 2014

Future is Today - Humanoids Robots 2014, NHK

How Robots Will Change the World, BBC/NHK

Microsoft's Concept - Future vision 2020, 2013

Electronic Skin, IEEE Spectrum, 2013

Power of Nanotechnology Video Blow Your Mind, 2013

Imagined: Your car in the not-so-distant future, Thorney Fallis, 2012

Introducing the Leap Motion, 2012

Connecting People to a Healthy Future, Kaiser Permamente, 2012

Et si nous étions immortels, 2012

L'Empire Samsung, Un Oeil sur la Panète/France 2, 2011

John Underkoffler présente le futur des interfaces utilisateurs, TED, 2010

Future of Screen Technology, TAT's Open Innovation, 2010

GestureTeks Illuminate multi-touch table, 2009

Microsoft Surface Computer, 2007

Microsoft's Surface Computer, 2007

Jeff Han présente son écran tactile révolutionnaire, TED, 2006 (YouTube)

Seattle's Bullitt Center: The World's Greenest Office Building

Sight - Augmented Reality (court-métrage), Eran May-Raz

Technology of the Future, M.Kaku,  BBC

Michio Kaku: What does the future look like? - SSHF

The Future of Military Dogfighters,The History Channel

Stealth: Documentary on Stealth technology

Le Data Mining en 35 leçons, YouTube

Memex animation - Vannevar Bush's diagrams made real (1945)

Tim Berners-Lee at CERN: Invention of the Web

Quand l'Internet fait des bulles (l'histoire du web), 13eme Rue

Information At Your Fingertips (2004), Microsoft, 1995

Retour aux Technologies

Page 1 - 2 - 3 -


Back to:

HOME

Copyright & FAQ