Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

L'ordinateur du futur

Futurologie (I)

Ainsi que nous l'avons expliqué dans l'article consacré aux technologies du futur, disserter et envisager l'évolution des technologies est un pari pascalien. Soit on se "plante" royalement faute d'être clairvoyant et de pouvoir anticiper les demandes du marché soit on parvient à discerner les tendances les plus prometteuses qui seront dominantes dans les décennies à venir. C'est donc un exercice en soi que d'essayer d'esquisser le monde futur par nature différent d'aujourd'hui.

L'idée d'inventer un objet ou un service trouve souvent ses racines dans l'imaginaire qui encore aujourd'hui est une source d'inspiration et l'un des principaux moteurs du progrès. 

Au cours du siècle dernier, les inventeurs trouvaient parfois leurs idées dans les romans d'aventure, dans les pièces de théâtre ou dans les premiers films "d'anticipation" aux décors de carton-pâte ou en trompe-l'oeil. Le scénario semblait leur prouver que "tout était possible", parler à un ordinateur, vivre sous la mer ou marcher sur la Lune.

Puis, le progrès aidant, grâce aux images de synthèse, la plupart des grandes compagnies technologiques ont imaginé le futur à travers des publicités ou des reportages plus vrais que nature. De nos jours cette fonction créatrice de l'imaginaire est principalement assurée par le cinéma à grands renforts d'effets spéciaux (James Bond, Star Trek, Minority Report, etc). Parmi les spectateurs, il y a certainement les inventeurs et les décideurs de demain.

Il reste bien entendu des entreprises qui congugent leur technologie au futur, comme Cisco et Intel parmi d'autres. Il y a quelques années, Apple, Microsoft et Nokia se sont également projetés une dizaine d'années dans le futur, mais jamais au-delà (voir les vidéos en fin d'article).

Aujourd'hui, des entreprises comme Apple, Google ou Samsung par exemple ne réalisent plus ou très peu de vidéos sur l'avenir de leurs technologies. Leur service marketing fait bien mieux : il propose une offre à l'échelle globale sans viser les marchés nationaux et ventent leur technologie d'aujourd'hui. Ils nous livrent le futur au présent en nous proposant des produits concrets sans imaginer des lendemains qui déchantent. Et finalement, c'est le coeur du métier de ces entreprises.

Apple, Cisco, Google, IBM, Intel, Microsoft et autre Samsung travaillent dans le but de vendre des produits au public. On peut leur reprocher de créer des besoins ou d'être loin des préoccupations du public. Mais si on y réfléchit, finalement c'est le public et les entreprises qui jugent l'intérêt de ces inventions. C'est donc pour leur rôle de visionnaire que nous sommes prêts à payer pour posséder les produits de ces créateurs.

Si on se base sur l'intérêt de leurs inventions, cela leur a plutôt bien réussi.

Tendances technologiques

Si certains lecteurs aujourd'hui pensionnés considèrent qu'il sont nés juste au bon moment pour assister à cet essor extraordinaire de la technologie tout azimut, les plus jeunes penseront également qu'ils sont nés juste au bon moment pour profiter de tout le potentiel de puissance de la technologie de l'information.

Si on prend un peu de recul par rapport aux technologies de l'information, on peut identifier au moins 10 concepts, tendances ou technologies qui vont marquer l'avenir du secteur informatique et des télécommunications :

- 1. L'Internet des objets (cette page ci)

- 2. Le Cloud computing

- 3. Le Big Data

- 4. Le Surface computer

- 5. La réalité virtuelle et augmentée

- 6. Les interfaces utilisateurs (page 2)

- 7. L'ordinateur optique

- 8. Les microprocesseurs en graphène

- 9. L'ordinateur quantique (page 3)

- 10. La mémoire ADN.

L'intelligente artificielle est traitée dans l'article consacré à la cybernétique et celui consacré au Meilleur des Mondes ou les dérives de la société. Le sujet des robots fait également l'objet d'un article distinct.

1. L'Internet des objets

Loi de Moore oblige et avec elle l'amélioration des performances des composants électroniques et la réduction du prix des appareils à mesure que le temps passe, l'industrie s'oriente vers des systèmes multimédia toujours plus compacts combinant tous les moyens de communications et privilégiant un support polyvalent : l'ordinateur.

Le prototype d'écran souple présenté par Nokia en 2011. Depuis, la compagnie finlandaise a été rachetée par Microsoft.

L'actualité nous annonce tous les jours un nouveau prototype d'ordinateur multimédia à haute définition, à écran large, souple, tactile ou à commande vocale, mural ou transformé en surface de travail.

Imaginer que le monde de demain utilisera des ordinateurs larges comme un bureau, ayant l'épaisseur d'un écran souple et la puissance d'un centre de calcul n'est donc même plus de la science-fiction mais une future réalité proche, même si leur commercialisation n'est pas prévue avant quelques années. D'ici là, les smartphones et autres tablettes supporteront quelques-unes de leurs fonctions.

Selon les analystes du cabinet Gartner, en 2009 il y avait 2.5 milliards d'appareils connectés, principalement des téléphones mobiles, des ordinateurs et des tablettes. En 2013, on dénombrait 9 milliards d'appareils connectés dont 6 milliards de mobiles. En 2019, 4.1 milliards d'habitants possédaient 39 milliards d'appareils connectés. En 2020, il y a plus de 30 milliards d'appareils connectés dont 10 milliards d'appareils mobiles et en 2025 on atteindrait 48 milliards d'appareils connectés dont 1.3 milliard de TV numériques (~2.5 fois plus qu'en 2010). Cette tendance fut observée au CES 2014 où près de 50% des appareils présentés étaient connectés.

Mais ces dizaines de milliards d'appareils connectés finissent par avoir un impact sur la planète, notamment en terme de consommation d'électricité et d'effet de serre. On y reviendra.

En 2015, le marché de l'IT et des télécommunications représentait près de 4000 milliards de dollars. Si on suit ces tendance, les revenus générés par "l'Internet des objets" augmentera de 309 milliards de dollars par an jusqu'en 2020 où il atteindra la somme de 1900 milliards de dollars. 50% de cette activité proviendra des start-ups et 80% seront investis dans les services plutôt que dans les produits.

Après les réseaux sociaux et l'IP tracking, l'Internet des objets prend de plus en plus d'importance : les nouveaux modèles de voiture, de moto, de vélo, d'ordinateur, de TV, de frigo, d'APN, de montre, de thermostat, demain notre cuisinière, notre radio digitale et notre chaudière communiqueront avec le service après-vente du fabricant. Un jour ce sera nos cartes de crédits et ensuite nos dossiers d'assurances et médicaux. Ce jour là c'est tout le concept de liberté à l'ère numérique qui sera bouleversé.

En fait cette liberté est déjà une illusion quand on sait que les fabricants d'appareils connectés comme les pirates informatiques ont la possibilité d'accéder à nos objets connectés à notre insu, via une liaison Wi-Fi ou même câblée. Dans quel but ? Optimiser notre profil de client pour les premiers et commettre un acte malveillant pour les seconds...

Ceci dit, selon les analystes de Cisco en 2025 il y aura potentiellement 2 milliards d'internautes et ils estiment que le marché des appareils connectés atteindra 3000 milliards de dollars.

Les experts du cabinet McKinsey confirment cette tendance, estimant ce marché entre 2700 et 6200 milliards de dollars d'ici à 2025. Autrement dit, le marché des terminaux connectés va envahir notre quotidien. Il est déjà connecté à la voiture, à la télévision, à des appareils médicaux, à la domotique... Cette évolution passe presque inaperçue mais elle est déjà bien installée. Vu sous cet angle, on comprend mieux l'intérêt des fabricants pour vos données personnelles : elles valent de l'argent !

A lire : Google rachète Nest Labs pour 3.2 milliards de dollars (sur le blog, 2014)

dans un monde de plus en plus connecté

2. Le Cloud computing

La manière dont nous travaillerons demain, notamment grâce à l'Internet mobile et au Cloud offre également d'intéressantes perspectives.

L'accès à des données, des applications et des infrastructures virtuelles (le concept de "Software as a Service") vont occuper une place de plus en plus importante à l'avenir dans les environnements professionnels et privés, d'autant plus s'ils sont alliés à l'exploitation des Big data (voir plus bas).

Aujourd'hui le public connaît le Cloud essentiellement via l'espace disque et les applications virtuelles mis à sa disposition depuis son ordinateur (le Cloud de Google, le SkyDrive de Microsoft, l'iCloud d'Apple, le Cloud Drive d'Amazon, l'Asus Web Storage, le Cloud de RealPlayer, le Creative Cloud d'Adobe, etc.) mais cela ne représente que le sommet de l'iceberg.

Selon Gartner, le Cloud qui représentait 132 milliards de dollars à l'échelle mondiale en 2013 contre 4000 milliards de dollars pour toute l'informatique, devient la locomotive du secteur IT avec une croissance de 18% en 2013 qui s'accélère. Le marché du Cloud devrait atteindre 270 milliards de dollars en 2020 et devrait doubler peu après 2030. Sa croissance la plus rapide s'observe dans le développement des infrastructures et des applications.

Le Cloud permet d'accéder à des infrastructures virtuelles et optionnellement de partager et de synchroniser les données entre différents ordinateurs ou personnes de confiance. A gauche, le SkyDrive de Microsoft et ses applications bureautiques virtuelles. A droite, le Creative Cloud d'Adobe et ses données graphiques.

3. Le Big Data

Le Big Data et les technologies de "data mining" concernent le stockage, la gestion et l'exploitation de gros volumes de données (des millions ou des milliards d'enregistrements représentant des petabytes de données) souvent de formats, de sources et de qualités variés dans des délais compatibles avec le rythme du métier.

Le "data mining" représente les nouvelles technologies de prospection et d'analyse qui permettent d'établir des corrélations entre des données a priori indépendantes et disparates afin d'identifier des tendances par exemple, de mieux cerner les habitudes des consommateurs, d'extraire les évènements suspects en isolant les individus de la moyenne, ce que ne permet pas une analyse statistique.

C'est un domaine qui évolue très rapidement et qui touchera de plus en plus les entreprises et nos relations avec l'économie globale. On en voit déjà les effets à travers les énormes data centers mis en place par Google, Facebook, Apple ou la NSA parmi d'autres où des clusters de superordinateurs dignes d'un centre de calcul analysent des données à un taux qui dépasse le terabyte par seconde.

L'homme devenant avide de données et en tirant de plus en plus de richesses, il se transforme graduellement en une nouvelle espèce bientôt bionique, l'Homo Communicans data cupidus.

Parallèlement au Big Data, deux tendances sont également en train d'émerger, celle de l'Open Data (la mise à disposition des données du secteur public) et du "Data as a Service" (DaaS). A terme, on peut envisager la fusion des trois concepts.

Vu l'intérêt que présente potentiellement l'exploitation de ces volumes massifs de données et le changement de paradigme qu'imposent le Big Data, nous y reviendrons en détail dans l'article sur Le Big Data et le data mining.

4. Le Surface computer

Jefferson Y. Han est un chercheur en mathématiques appliquées du Courant Institute of Mathematical Sciences de l'Université de New York (NUY). C'est un expert des interfaces homme-machine et des écrans tactiles. Il travaille également sur des projets de navigation robotisée, le motion capture et le graphisme de synthèse en temps-réel.

Au cours d'une conférence du TED (Technology Entertainment Design) organisée à Monterey, en Californie en février 2006, un an avant la sortie de l'iPhone, Jeff Han présenta un écran plat d'une nouvelle génération, le "Surface computer" (à ne pas confondre avec les "Surface RT" et "Surface Pro" commercialisés par Microsoft en 2012 et 2013 qui sont des tablettes PC).

Mesurant 91 cm de diagonale, le "Surface computer" présenté par Jeff Han disposait d'un écran couleur tactile bon marché et mince sur lequel il manipulait à main libre des photos et des sphères animées, les déplaçant, modifiant leur taille ou les tournant sur elles-mêmes aussi simplement et rapidement que des objets réels en deux dimensions. Sa démonstration reçut un franc succès.

Jusqu'ici son projet avait été tenu secret, histoire que la société Perceptive Pixel qu'il avait fondée ne soit pas dépossédée de ses brevets et que la concurrence ne gagne pas trop vite du terrain. Même la publication de sa conférence du TED fut publiée sur YouTube après un embargo de 6 mois.

A voir : Jeff Han présente son écran tactile révolutionnaire, TED, 2006

John Underkoffler présente le futur des interfaces utilisateurs, TED, 2010

La raison était que ce concept de "Surface computer" était un projet stratégique pour les grands constructeurs d'écrans et les développeurs de logiciels, en commençant par Samsung, LG et Microsoft.

C'est ainsi que le "Surface computer" de Microsoft fut présenté le 30 mai 2007, soit 18 mois plus tard. Alliant un écran tactile grand comme une table et des concepts innovants de gestion d'objets réels et virtuels, cette invention va révolutionner notre façon d'utiliser l'informatique, et pas uniquement l'ordinateur.

Non seulement le "Surface computer" est un ordinateur, mais en fonction de sa taille il peut se transformer en table de travail digitale et être utilisé au bureau, à domicile ou en mobile. Dans un commerce de détail, il peut simplifier les commandes ou la facturation. En version murale, il peut servir de support multimédia à un conférencier. Relié à Internet et à des systèmes audiovisuels, il ouvre un champ d'applications encore inexploré.

A voir : Microsoft surface computer, 2007

A lire : Microsoft dévoile son "Surface computer"

Au cours de sa démonstration du "Surface computer" au TED Jeff Han avait expliqué que ses manupilations s'effectuaient "sans interface" et sans "loupe d'agrandissement", de manière intuitive, ce qui participa aussi au succès de sa présentation comme à celle de Microsoft car la technologie était innovante et bluffante comme l'ont souligné beaucoup d'observateurs. Mais est-elle réellement aussi intuitive et prometteuse que cela ?

Une chose est sûre, selon CNet, début 2014 Microsoft commercialisait le "Surface computer" dans 12 pays d'Amérique, d'Europe, du Moyen-Orient et d'Afrique et proposait déjà plus de 120 applications. A titre de comparaison, le Windows Store proposait plus de 150000 applications pour Windows 8.x compatibles avec le "Surface Pro". Ces deux marchés sont en plein essor.

Les applications offertes par le "Surface computer" offrent l'opportunité à plusieurs personnes de communiquer autour d'un même sujet en insistant sur des interactions plus physiques et tangibles qu'en étant derrière l'écran d'un ordinateur.

Mais elles présentent aussi les défauts de la nouveauté. Cette table tactile ressemble à une étude de faisabillité (proof of concept) et n'a pas encore d'autre intérêt que d'amuser les utilisateurs quelques heures. Elle ne présente pas non plus l'éventail des options et périphériques que propose un tablette PC ou un ordinateur de bureau. Son utilisation dépend de sa conception et des contraintes du hardware : usage du stylet, des doigts ou par reconnaissance de forme et identification mais dont le fonctionnement reste perfectible.

Enfin, à l'image des ordinateurs classiques et des bibliothèques d'images, les applications pour tablette PC et "Surface compter" ne proposent pas d'assistance automatique pour organiser ces informations, rien de plus que des listes et des catalogues d'enregistrements avec les mêmes restrictions que les systèmes traditionnels obligeant l'utilisateur à effectuer beaucoup de travail manuellement (trier, labeliser, etc).

Aussi, dans l'état actuel, les tablettes, tablettes PC et le "Surface computer" offrent juste un nouveau moyen de visualiser des objets et de communiquer; ces inventions n'offrent rien de plus qu'une version actualisée des ordinateurs que nous connaissons depuis des décennies. L'intérêt du public pour ces supports est donc relatif et la révolution qui se prépare n'est probablement pas à rechercher dans cette direction.

En revanche, ainsi que nous l'avons expliqué, dans quelques années la réalité virtuelle et augmentée va constituer une révolution dans notre façon d'appréhender le monde.

5. La réalité virtuelle et augmentée

Par définition est virtuel quelqu'un ou quelque chose qui n'a pas d'existence tangible, mais qui existe uniquement dans l'imagination, numériquement ou qui n'est accessible qu'à distance, sans contact physique.

L'objet virtuel n'a donc pas d'existence concrète. Une créature virtuelle comme un animal de synthèse ou un avatar d'humain n'existe pas dans la réalité même si certains systèmes permettent de sentir sa résistance et sa texture, à  l'image des joysticks et des pédaliers des programmes de simulation qui offrent un retour de force.

A voir : Sight - Augmented Reality (court-métrage)

Warpalizer - US Navy FITE JCTE

Inside the Holodeck, U.West Florida

A gauche, écran de projection Warpalizer utilisé dans le simulateur de vol du constructeur suédois Viggen. A droite, le 8e régiment de Marines du 2eme Bataillon de l'US Navy s'entraînant dans le futur environnement d'immersion de réalité virtuelle (FITE) de Camp Lejeune en Caroline du Nord en 2010.

Dans un environnement de réalité virtuelle ou "VR", l'utilisateur peut être soit à l'extérieur soit à l'intérieur de l'environnement simulé. L'immersion peut être partielle, l'environnement étant projeté sur deux ou trois murs, ou totale et dans ce cas l'utilisateur est en immersion à 360°, du sol au plafond, dans un local ou même une sphère spécialement conçue à cet usage.

L'utilisateur évolue dans cet univers virtuel au moyen d'un casque ou de lunettes combinées ou non à une projection murale simulant la scène dynamiquement et donc en temps réel. Aidé par des écrans à vision stéréoscopique et parfois de gants munis de capteurs sensoriels, dans l'esprit de l'utilisateur l'existence des objets virtuels et des avatars ne fait aucun doute. C'est justement ces illusions et ces impressions sensorielles trompeuses pour nos sens qui font tout l'intérêt de la réalité virtuelle.

La réalité virtuelle est paradoxalement une réalité bien concrète depuis 1966, lorsque l'Américain Thomas A. Furness III proposa un simulateur de vol à l'USAF. En 1968, Ivan Sutherland (qui travailla pour le DARPA) alors à l'Université d'Harvard et Bob Sproull développèrent le première système à réalité augmentée, le HMD ou Head-Mounted Display, mais il était tellement encombrant qu'il était suspendu au plafond. Ces systèmes seront perfectionnés par le MIT et la NASA notamment.

La réalité virtuelle est surtout utilisée par les militaires, où la technologie est la plus avancée, surtout dans les interfaces utilisateurs qui deviennent très compacts. Cette technologie est principalement utilisée dans les simulateurs de vol et de plus en plus pour entraîner des soldats (infanterie, conducteur de char, etc).

A voir : Introducing the Leap Motion (2012)

Alexei Shulgin: Super-i Real Virtuality System (2007)

Deux applications futures mais sans doute utopique de la réalité virtuelle. A gauche, "Matrix" des frères Wachowski (1999) où les acteurs sont connectés en immersion totale, mentale et physique à une matrice virtuelle, un programme d'intelligence artificielle qui a pris le contrôle du monde. A droite, "Avatar" de James Cameron (2009) dans lequel les corps d'extraterrestres clonés (les Na'vis) combinés à de l'ADN humain sont gérés par un programme baptisé Avatar qui permet d'en prendre le contrôle mental à distance.

Le secteur civil est évidemment très impliqué dans la réalité virtuelle, en particulier les universités et les laboratoires de recherches et développements ainsi que les bureaux d'études (architecture, automobile, aéronautique, etc.). On l'utilise dans les laboratoires scientifiques (en chimie, biologie moléculaire, anatomie, océanographie, etc) et elle commence à pénétrer les secteurs publics et privés comme les musées, les studios TV, les boutiques de prêt-à-porter et certains salons de coiffure.

Le public connaît la réalité virtuelle depuis les années 2000 à travers les jeux de simulation, ceux disponibles sur consoles et les logiciels exploitant les avatars.

Quant aux visions futuristes du transfert d'un esprit en immersion totale dans un avatar physique capable d'interagir dans le monde réel comme on le voit dans des films comme "Existenz", "IA", "Matrix" ou "Avatar", cela restera (hélas) pour longtemps de la science-fiction. On peut juste s'approcher de ce concept en pilotant des intefaces connectés à notre système nerveux ou plus simplement et moins intrusif en pénétrant dans le cyberespace de Second Life dont les activités illicites peuvent avoir des conséquences dans le monde réel. On y reviendra.

Prochain chapitre

6. Les interfaces utilisateurs

Page 1 - 2 - 3 -


Back to:

HOME

Copyright & FAQ