Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

 

 

 

 

La Singularité Technologique

La voie informatique (II)

Le concept du superordinateur El Capitan de HPE (qui racheta Cray) qui sera utilisé par le DoE, la NNSA et le LLNL. Cette machine atteindra 2 exaFLOPS (crête) et sera opérationnelle en 2023. Document LLNL.

2. L'ère de l'information et du Big Data

Un autre indicateur clé qu'une Singularité se profile peut-être à l'horizon est la façon dont les technologies de l'information et la production d'informations ont considérablement augmenté au fil du temps. Avec des avancées dans des secteurs comme celui de l'informatique, des réseaux, d'Internet et de la technologie sans fil, le nombre de personnes connectées à d'autres a augmenté de façon exponentielle en l'espace d'une génération.

Entre 1990 et 2016, le nombre de personnes dans le monde ayant accès à Internet est passé de 2.6 millions à 3.4 milliards soit 1307 fois plus (cf. Our World in Data).

Selon un rapport publié en 2018 par l'Union Internationale des Télécommunications (UIT), 90% de la population mondiale aura accès à des services Internet à large bande d'ici 2050 grâce à la croissance des appareils mobiles et des services Internet par satellite (cf. les constellations de satellites Starlink de SpaceX et la pollution lumineuse qu'ils entraînent). Cela représente 8.76 milliards de personnes, une augmentation de 220% par rapport aux 4 milliards de personnes (environ la moitié de la population mondiale) qui y avaient accès en 2021. Mais cette fois, il n'y aura pas de friture sur les ondes car, comme c'est déjà parfois le cas, les télécommunications seront assurées par des systèmes optoélectroniques, notamment grâce à des processeurs nanophotoniques et la fibre optique (cf. la technologie Light Peak).

Une autre mesure clé est la quantité de données générées au fil du temps. Lors de la conférence Techonomy 2010, le CEO de Google, Eric Schmidt, déclara que l'humanité créait autant d'informations tous les deux jours qu'elle en avait créée entre l'aube de la civilisation (il y a ~12000 ans) et 2003. Il estima la quantité d'informations de l'ordre de 5 EB (exabytes) ou cinq quintillions (1018) d'octets.

Dans les années 2010, l'humanité est entrée dans ce qu'on appelle "l'ère du Zettabyte", où la quantité de données générées était égale à un sextillion (1021) d'octets. Selon Statista, le volume de données créées entre 2010 et 2020 est passé de 2 à 64.2 ZB – une augmentation de 32% chaque année – et devrait atteindre 181 ZB d'ici 2025, soit une augmentation de 36% chaque année.

Selon Pennystocks, en 2014, plus de 22 TB de données furent transférés chaque seconde sur Internet. Selon Domo, en 2020 chaque personne créa 1.7 MB de données chaque seconde soit ~0.147 TB par jour. Pour l'ensemble des internautes, en 2020 cela représenta 2.5 quintillions (1018) de bytes soit 2.5 millions de TB ou encore 2.5 EB de données créées chaque jour soit 17 millions de fois plus qu'en 2014. La progression est exponentielle !

De même, la quantité de données conservées au fil du temps a également augmenté à un rythme prodigieux. Entre 2005 et 2020, la capacité de stockage dans le monde est passée de 200 EB de données à 6.7 ZB soit une augmentation moyenne de 223% par an. À un taux de croissance annuel composé estimé de 19.2%, la capacité de stockage mondiale devrait atteindre 16.12 ZB d'ici 2025 (cf. Statista).

A consulter : Social-Media Statistics, Pennystocks

A gauche, structure d'Internet en 2007. Le coeur du web se compose d'un réseau dense d'environ 80 noeuds primaires (tels que les fournisseurs de service), 5000 noeuds secondaires y sont connectés et 15000 noeuds au troisième niveau. Si tous les noeuds centraux tombaient, 70% des noeuds restant pourraient assurer la continuer du service. Bref, Internet ne se crashera jamais. En revanche, des noeuds et notamment des serveurs DNS ou ceux des opérateurs peuvent tomber en panne ou être coupés, bloquant le trafic informatique dans certaine villes ou régions du monde. Document MIT Technology Review. A droite, "Ies autoroutes de l'information" auxquels on associe Internet et ses flux de données (cf. le Big Data) est illustré dans ce tableau de bord qui comptabilise les données qui s'accumulaient sur les différentes plates-formes informatiques dont les messageries et les réseaux sociaux en 2014. En 2020, les internautes ont créé chaque jour 17 millions de fois plus de données qu'en 2014. La progression est exponentielle !

Qu'adviendra-t-il ensuite ? Compte tenu du rythme de progression actuel, l'humanité entrera probablement dans "l'ère du Yottabyte" (1024 octets) avant 2050. Mais étant donné que le taux lui-même est soumis à une accélération, il n'est pas exclu que ce jalon soit franchi bien avant le milieu du siècle.

Toutes ces données constituent la base des connaissances humaines. Alors que de plus en plus de personnes se connectent à Internet grâce à des liaisons à haut débit et que cette quantité extraordinaire de données est à portée de main (ou de clic de souris ou éventuellement directement interfacée avec leur cerveau), cette bibliothèque collective pourrait servir comme une sorte de rampe de lancement pour une Singularité Technologique.

3. L'intelligence artificielle

Une autre voie possible ou probable vers la Singularité est le développement de l'intelligence artificielle (IA) avancée. Ce concept a été initialement popularisé par le célèbre mathématicien et décrypteur anglais Alan Turing, qui souleva en 1950 la question "Les machines peuvent-elles penser ?" dans son essai "Computing Machinery and Intelligence". C'est également dans cet article qu'il inventa son jeu d'imitation, le fameux "Test de Turing".

Alan Turing lors de son admission à l'Université de Princeton en 1936, à 24 ans, où il obtiendra son PhD en 1938.

Le jeu, écrit Turning, consisterait en un interrogateur humain essayant de faire la distinction entre un ordinateur et un humain qui répondrait à une série de questions sous forme de texte. Comme Turing l'expliqua : "Nous posons maintenant la question : "Que se passera-t-il lorsqu'une machine prendra le rôle de A dans ce jeu ?". L'interrogateur décidera-t-il à tort aussi souvent lorsque le jeu se joue ainsi que lorsqu'il se joue entre un homme et une femme ? Ces questions remplacent notre origine : "Les machines peuvent-elles penser ?""

Par la suite Turing redéfinit plusieurs fois le concept (cf. cet article) jusqu'à aboutir au concept de "Learning machine", l'apprentissage automatique, un terme inventé en 1959 par Arthur Samuel du MIT qui travailla notamment pour les Bell Laboratories et IBM. Il s'agit d'algorithmes d'intelligence artificielle qui permettent aux ordinateurs et aux robots d'apprendre au sens propre et de s'améliorer à partir des données qu'ils enregistrent et sans être reprogrammés (à l'inverse des robots industriels dont la programmation est figée).

Dans leur étude consacrée à l'IA intitulée "Artificial Intelligence: A Modern Approach", Stuart Russell de l'UC Berkeley et Peter Norvig, directeur de la recherche chez Google, ont établi une distinction entre les systèmes informatiques qui pensent et agissent comme des humains et ceux qui penseraient et agiraient de manière rationnelle.

Au cours des dernières décennies, cette distinction est devenue plus évidente grâce aux superordinateurs, à l'intelligence artificielle combinée au Deep Learning (l'apprentissage profond) et à d'autres applications capables de traiter l'information et de discerner des modèles. Les progrès vers des "machines pensantes" ont suivi le rythme des améliorations de l'informatique et ont conduit à des programmes capables de dépasser de loin l'intelligence humaine à certains égards.

En 1957, le psychologue américain Frank Rosenblatt construisit le premier ordinateur conçu pour imiter un réseau de neurones, le Mark 1 Perceptron. La machine démontra sa capacité à apprendre par essais et erreurs, ce qui valut à Rosenblatt l'honneur officieux d'être le "père du Deep Learning" ou Apprentissage Profond, un ensemble de techniques qu'exploitent aujourd'hui tous les systèmes d'intelligence artificielle.

En 1959, les efforts pour développer l'IA commencèrent sérieusement avec l'invention du "General Problem Solver" (GPS), un programme informatique créé par l'économiste et psychologue cognitif Herbert A. Simon du Carnegie Institute of Technology de Pittsburgh ainsi que le programmeur John C. Shaw et le chercheur en psychologie cognitive Allen Newell de la RAND Corporation. Ce programme, espéraient-ils, conduirait au développement d'une machine de Turing, une "machine universelle de résolution de problèmes".

Dans les années 1980, des algorithmes de "propagation vers l'arrière des erreurs" (rétropropagation) furent intégrés aux réseaux neuronaux, leur permettant de travailler plus rapidement et de résoudre des problèmes que l'on pensait auparavant insolubles. Depuis, ils sont devenus le pilier de tous les réseaux neuronaux et applications d'IA.

En 1996, IBM dévoila Deep Blue, un ordinateur de jeu d'échecs qui détrôna le champion du monde Garry Kasparov dans une série de matchs et de revanches.

En 2008, les ingénieurs du projet DeepQA d'IBM achevèrent la mise au point de leur superordinateur Watson de 65 TFLOPS qui allait concourir (et gagner) au jeu télévisé Jeopardy, battant les champions Ken Jennings et Brad Rutter en 2011. En 2021, Watson fut mis en vente pour 1 million de dollars soit au quart de son prix, sans trouver d'acheteur (cf. Axios).

A voir : What is AI? How and when it is going to have an impact in our lives?, IE, 2019

Jeopardy - L'ordinateur Watson contre l'être humain : 1-0 (sur le blog)

A gauche, Frank Rosenblatt vers 1957 travaillant sur le "Mark 1 Perceptron" qu'il définit lui-même comme la première machine "capable d'avoir une idée originale". Document U.Cornell, Division of Rare and Manuscript Collections. A droite, un prototype du superordinateur Watson d'IBM de 65 TFLOPS photographié en 2011 à Yorktown Heights, dans l'État de New York. Le système doté d'IA occupait à l'origine toute une pièce. Il servit à l'imagerie médicale jusqu'en 2021.

En 2014, Google acquit la société de technologie britannique DeepMind, qui combinait l'apprentissage automatique et les neurosciences pour créer des algorithmes d'apprentissage à usage général. En 2016, le programme AlphaGo de la société battit le champion du monde de Go, Lee Sodol, dans un match en cinq parties.

En 2015, la société chinoise Baidu publia un article expliquant comment son supercalculateur Minwa établit un nouveau record de reconnaissance d'images avec seulement 4.58% d'erreur, battant de peu les précédents records établis par Microsoft et Google (cf. IBTimes). Cette performance fut rendue possible grâce à un nouveau type d'apprentissage profond connu sous le nom de réseau neuronal convolutif (cf. IBM) qui permet au système d'IA d'identifier et de catégoriser les images avec une plus grande précision qu'un humain moyen.

Aujourd'hui, aidé par la numérisation de l'économie, les superordinateurs et l'apprentissage automatique sont souvent utilisés par les gouvernements, les instituts de recherche et le secteur privé dans le cadre du Big Data pour effectuer du data mining ou exploration de données, c'est-à-dire pour détecter des modèles de comportements, des anomalies et établir des corrélations dans de grands ensembles de données (jusqu'à des miliards de records contenant chacun jusqu'à plusieurs milliers d'entrées). Aujourd'hui, cette technologie est devenue indispensable pour faire face au volume croissant d'informations qui sont créées quotidiennement et pour prédire les résultats.

Vers quel avenir nous conduit l'IA ? Document 4ximage/iStock.

En 1985, le professeur Ray J. Solomonoff, l'inventeur de la théorie algorithmique de l'information et pionnier de l'apprentissage automatique, écrivit un essai intitulé "The time scale of artificial intelligence. Reflections on social effect" dans lequel il détaille ce qu'il considère comme les sept étapes du développement qui devaient être atteintes avant que l'IA puisse être pleinement opérationnelle. Ces étapes seraient :

- 1. La création de l'IA en tant que domaine d'étude de la résolution de problèmes humains (cf. la psychologie cognitive) et le développement de grands ordinateurs parallèles (aux performances similaires au cerveau humain).

- 2. Une théorie générale de la résolution de problèmes qui comprend l'apprentissage automatique, le traitement et le stockage de l'information, les méthodes de mise en œuvre et d'autres concepts novateurs.

- 3. Le développement d'une machine capable de s'améliorer.

- 4. Un ordinateur capable de lire presque n'importe quelle collection de données et incorporer la plupart d'entre elles dans sa base de données.

- 5. Une machine disposant d'une capacité générale de résolution de problèmes proche de celle d'un humain dans les domaines pour lesquels elle a été conçue (c'est-à-dire des systèmes experts en mathématiques, en sciences, dans les applications industrielles, etc.)

- 6. Une machine ayant une capacité proche de celle de la communauté informatique.

- 7. Une machine ayant une capacité plusieurs fois supérieure à celle de la communauté informatique.

En bref, Solomonoff pense que le développement de l'IA consisterait à construire des machines qui pourraient imiter les fonctions du cerveau humain (apprentissage, rétention d'informations, résolution de problèmes, amélioration de soi, etc.) et éventuellement les surpasser. A l'époque, il affirmait que tout, sauf la première étape, devait encore être accompli.

Sur la base de cette feuille de route, nous sommes aujourd'hui sur le point de réaliser une véritable intelligence artificielle puisque les superordinateurs modernes sont capables de surpasser les êtres humains à bien des égards, mais pas tous comme l'ont souligné les rédacteurs Barry Libert et Megan Beck en 2019 dans la revue "Forbes", en particulier dans le raisonnement abstrait ou intuitif. Néanmoins, nous nous rapprochons de plus en plus du jour où l'intelligence artificielle pourrait très bien dépasser l'humanité.

Lorsque cela se produira, on s'attend à ce que la recherche et le développement scientifiques s'accéléreront, menant à de nouvelles possibilités à peine imaginables mais très ambitieuses. Si ces machines sont chargées de créer des versions plus avancées d'elles-mêmes, elles n'auront peut-être aucune raison d'arrêter de le faire une fois qu'elles auront atteint une intelligence générale de niveau humain et pourraient simplement continuer à s'améliorer jusqu'à ce qu'elles atteignent ce que Kurtzweil a appelé un "décollage" de la superintelligence artificielle, un point d'inflexion définitif marquant la Singularité Technologique que beaucoup redoutent.

La fausse peur des robots

Il faut aborder ce sujet car nous verrons que les préjugés que nous avons parfois envers la technologie ne sont pas rationnels mais alimentés par des rumeurs, l'imaginaire collectif, bref par des idées fausses qu'il faut combattre pour pouvoir apprécier à sa juste valeur la qualité d'une innovation et les opportunités qu'elle offre plutôt que de se focaliser sur ses limitations, ses défauts ou les éventuels risques qu'elle présenterait, autant de sujets qu'en théorie il est possible de traiter (améliorer, supprimer, etc).

"Robot", est un terme emprunté au polonais "robota" signifiant "corvée" ou "esclave" et par extension "travailler" mais dans le sens "faire le sale boulot". Il fut utilisé pour la première fois en 1920 dans la pièce de théâtre "R.U.R" (Rossum's Universal Robots) de l'écrivain tchèque Karel Čapek. Le robot a donc pour mission de réaliser certaines tâches et de nous aider.

Un robot dans les starting-blocks. Equipier ou concurrent ? A nous de définir ce qu'on peut en attendre. Document Peakpx.

Les premiers robots étaient des outils industriels destinés à accomplir des taches spécifiques sur les chaînes d'assemblage de General Motors en 1961.

La robotique intelligente est née à la fin des années 1960 avec le robot Shakey construit par le SRI, l'ancien institut de recherche de l'Université de Stanford, grâce à un financement du DARPA. Aujourd'hui Shakey est exposé au Computer History Museum, à Mountain View, en Californie.

Mais ce premier robot qui ressemble à un cube sur roulettes dont le nom signifie "tremblant" fut construit par des logiciens et programmé en langage Lisp, et non par des roboticiens, ce qui explique qu'au lieu d'être bien stable, il vibrait en permanence. Ce ne fut pas vraiment un succès mais une expérience dont on tira la leçon. Désormais les robots sont construits par des roboticiens maîtrisant l'électromécanique et la mécatronique (la mécanique, l'électronique et l'informatique intelligente adaptée aux objets en mouvements). Si le Lisp est encore utilisé, les langages les plus couramment utilisés sont le C/C++, Python, Java, .C#/.Net et MatLab.

Entre-temps, les agences spatiales en collaboration avec des entreprises privées et des universités mirent au point les premiers robots destinés à l'exploration spatiale. Le premier d'entre eux fut le Lunokhod soviétique qui se posa sur la Lune en 1970.

A l'inverse des automates incapables de décider par eux-mêmes qui ne font peur à personne et nous amusent, les robots font parfois peur car ce sont des machines en métal dont l'aspect semble parfois bricolé et en même temps dotées de perception : les robots bougent, ils sont capables de prendre des décisions, certains parlent et expriment apparemment des émotions comme les humains. Même un robot-ménager ou un appareil intelligent peut être rébarbatif et énervant quand on ne le maîtrise pas ou qu'il ne fonctionne pas.

Les robots, qu'ils soient primitifs comme les machines automatiques industrielles ou très complexes comme Atlas de Boston Dynamics qui est autonome, doté d'IA et capable de faire un salto arrière, effrayent certaines personnes, généralement de l'ancienne génération, alors qu'ils séduisent les plus jeunes. Pourquoi certaines personnes éprouvent ce sentiment de méfiance ou de rejet ?

Il y a d'abord une raison évidente, c'est leur aspect physique. Un être humain préférera toujours interagir avec ses semblables ou avec un robot humanoïde, c'est-à-dire ayant au minimum une tête expressive et si possible un corps et quatre membres. Dialoguer avec une boîte métallique ou face à un écran d'ordinateur connecté à un fatras de métal et de câbles n'a rien de séduisant.

Ensuite, il y a l'influence culturelle. Il faut remonter très loin dans l'histoire. Le mythe du Golem (cf. le Livre des Psaumes 139:16 de la Bible hébraïque) et ses adaptations contemporaines (cf. la communication en cybernétique selon Norbert Wiener et les nombreux films autour du thème du Golem) ou l'histoire de Frankenstein (1818) montre qu'au Moyen-Orient et en Occident, l'imaginaire collectif influence la façon dont on appréhende les créatures artificielles.

Dans ces deux contes, au départ quelqu'un (Dieu ou l'inventeur) souhaite créer une créature libre et dans le second cas, qui l'aidera dans son travail, mais finalement le monstre se retourne contre les humains, accomplissant des actes répréhensibles et devient dangereux.

A lire : Quand les robots inventent un langage qui leur est propre - blog de Facebook, VF, 2017

Evolution des robots intelligents de Honda. Si le modèle E0 construit en 1986 donne le sentiment d'être plus une machine rébarbative qu'un androïde, le modèle d'Asimo de 2011 est un robot bien plus sympatique. A droite, les robots Asimo (2000) et P3 (1997).

Ce sont ensuite les auteurs de science-fiction qui ont exacerbé la nature négative des créatures artificielles à travers des romans et des films comme "L'odyssée de l'espace" (1968), "Terminator" (1984), "Matrix" (1999-2003), "I, Robot" (2004), "Oblivion" (0213) et des films dystopiques comme "Blade Runner" (1982) et "Ghost in the Shell" (1995) où certains cyborgs s'ignorent ou jouent le mauvais rôle avant que la vérité soit dévoilée.

Puis, il y eut toute une série de films dits "cyberpunks" ou simplement des films d'action ou des thrillers où les cyberpirates utilisent des ordinateurs pour porter atteinte à des gouvernements ou à la vie privée d'honnêtes citoyens : "Ghost in the Machine" (1993), "Traque sur Internet" (1995), "Strangeland" (1998), "Die Hard 4" (2007), "Transcendance" (2014), etc. Sans oublier "Tron" (1982 et 2010) où un ennemi créé dans le monde virtuel de la programmation finit par représenter une menace pour la planète. De plus, le cas échéant, les écrans d'ordinateurs qu'on y voit affichent souvent des données incompréhensibles pour le grand public, comme des lignes de codes qui suggèrent que la machine utilise un langage caché qui lui est propre. Si on n'y prête pas attention, on peut imaginer que les machines sont du côté des criminels ou ont une conscience et sont à l'origine du chaos.

Les entreprises ont involontairement participé à cette paranoia en construisant des robots industriels spécialisés présentés comme des systèmes ayant une certaine intelligence. Mais les personnes qui devaient les cotoyer ainsi que le public y voyaient plutôt des machines brutes et sans âme avec lesquelles ils devaient se familiariser à défaut de pouvoir dialoguer.

A consulter : MovieCode

ou comment démystifier les lignes de codes affichées dans les films

Mais la robotique a rapidement évolué, principalement dans le secteur de l'aide aux personnes comme on le voit ci-dessus avec les différents modèles de robots d'exhibition développés par Honda. Si le modèle E0 construit en 1986 n'avait rien de séduisant, le dernier modèle d'Asimo présenté en 2011 est bien plus séduisant et reçut un accueil bien plus chaleureux. Il reste même le robot préféré du public devant le taciturne Atlas.

A l'inverse de l'Europe, dans la culture japonaise, s'il existe dans les traditions des monstres belliqueux et des dragons, les robots sont généralement des êtres bienveillants qui veillent sur les humains; ce sont des héros de l'humanité. On les retrouve dans tous les mangas et les films de science-fiction.

De plus, avec l'augmentation du nombre de retraités, le Japon a fait de la robotique une priorité nationale et ce secteur est devenu l'un des fers de lances de son industrie. En revanche, cette culture n'existe pas en Europe et le monde politique propose peu d'incitants aux industriels intéressés par la robotique. Il fallut attendre 2020 pour que les institutions européennes soutiennent financièrement les entreprises du secteur de l'intelligence artificielle et 2021 pour que l'Europe propose un cadre juridique pour l'IA.

A voir : Qu'est-ce que c'est la Robotique ?, le bus des technologies

Qu'est ce que la robotique ?, ZDNet

Ces jeunes enfants de la "génération Alpha" ont vite été séduits par le robot iCub qui leur apprend à jouer et qu'ils considèrent rapidement comme leur ami. Une fois adulte, ces personnes nées avec l'informatique connectée et la robotique n'auront pas d'idées préconçues sur les intentions des robots dotés d'IA comme peuvent encore en avoir leurs parents. Documents Patricia Shaw/EPSRC/PA et Sandy Spence/EPSRC/UKRI.

Un exemple d'influence littéraire intéressante est l'oeuvre de l'écrivain américain d'origine russe Isaac Asimov (1920-1992). Asimov était biochimiste, ce n'était pas un cybernéticien. Auteur prolifique de science-fiction et d'ouvrages de vulgarisation (il publia ou édita plus de 500 livres), au gré de ses réflexions, en 1941 il utilisa pour la première fois le mot "robotique" dans sa nouvelle "Liar!" (Menteur!).

Puis, en 1942 et donc une génération avant l'invention de la robotique, Asimov publia une nouvelle intitulée "Runaround" (Cercle vicieux) dans laquelle il posa les trois lois de la robotique qu'on retrouvera en 1950 dans son livre "I, Robot" (Les robots).

Très intelligent, rationnel, cultivé et capable de vulgariser des sujets complexes, Asimov fut rapidement prit au sérieux et considéré comme un mentor de la robotique. A ce titre, il fut écouté comme un oracle prédisant l'avenir et comment l'appréhender. Mais cette célébrité eut un revers inattendu auquel lui-même n'a pas pensé et, a fortiori, dont le public n'a pas toujours conscience : le lecteur prend souvent les affirmations d'Asimov au pied de la lettre, alors qu'il s'agit d'une oeuvre de fiction.

A lire : Les robots au service des hommes (sur ce site)

Isaac Asimov vers 1980.

Les trois lois de la robotique

Isaac Asimov, 1942

Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;

Deuxième loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ; 

Troisième loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

En 1985, Asimov proposa une loi zéro dans la nouvelle "Robots and Empire" (Les Robots et l'Empire). Cette loi place la sécurité de l'humanité avant celle d'un individu. A la différence des trois lois originelles codées en dur dans le matériel, la loi zéro est déduite par les robots à partir du fonctionnement du logiciel.

Imaginons par exemple un client intéressé par l'achat d'un robot comme Asimo doté d'intelligence artificielle. Aujourd'hui, ce client est forcément influencé par l'imaginaire collectif et sa propre culture. Même s'il n'a jamais lu ou vu l'oeuvre d'Isaac Asimov, il a forcément entendu parlé des réflexions d'Asimov qui semblent nous mettre en garde contre le danger que représenterait d'éventuels robots incontrôlables, etc (cf. "Les Cavernes d'Acier" et "I, Robot"). Ce client va donc naïvement demander au vendeur si les trois lois de la robotique ont bien été implantées dans cet androïde ? Il sera très surpris et sans doute déçu quand le vendeur ou même tout chercheur en robotique lui répondra : "non", car actuellement le défit est bien trop complexe à résoudre. En effet, comment définir la violence, comment la mesurer ? Comment faire comprendre à un robot qu'une tapette sur la joue peut être amicale ou être un signe de violence ? Les chercheurs en robotique sont encore à des années-lumière de pouvoir satisfaire ce client.

Les points faibles des technologies

Ouvrons une parenthèse pour souligner que la technologie est une très bonne chose quand les appareils fonctionnent comme prévu. Mais c'est également ici que notre société dévoile sa plus grande faiblesse : si l'alimentation électrique est coupée, toute une région peut être paralysée. En effet, les systèmes informatiques non blindés sont sensibles aux champs magnétiques. Or les microprocesseurs gèrent tous les réseaux et de plus en plus d'appareils domestiques, de l'alimentation de votre frigo ou de votre voiture, à votre compte en banque en passant par votre smartphone et certains de vos gadgets numériques, sans oublier les systèmes de monitoring des centres de santé, les réseaux de télécommunications, de transport, de signalisation, de sécurité et d'énergie (cf. la cybercriminalité). A cela, nos responsables répondent que les backups, les alimentations primaires ou de secours sur batterie ou au fuel et autres systèmes redondants ont justement été prévus pour éviter ou contourner cette éventualité, le temps de rétablir les fonctions du système défaillant. Il n'empêche qu'en mars 1989, une tempête magnétique provoquée par une éruption solaire engendra un blackout majeur qui paralysa une bonne partie des pays nordiques durant plus de 24 heures (cf. les défaillances des satellites).

A l'inverse, une décision erronée prise par un ordinateur doté d'IA (un système expert) qui ne serait pas sous la supervision d'un ordinateur arbitre ou d'un humain peut entraîner une réaction en chaîne, principalement sur les marchés financiers ou entraîner la chute d'un avion. Même les robots tels ceux de Honda ou de Boston Dynamics ou encore les drones autonomes apparemment robustes et infaillibles peuvent être victimes d'un accident mécanique, être à court d'électricité, désorientés, glisser, chuter, abattus et être immobilisés, mettant en danger une opération civile ou militaire.

La course entre les androïdes et les humains a déjà commencé si on en juge par les performances du robot Atlas de Boston Dynamics (à gauche) dont certains modèles épaulent déjà les militaires. D'autres s'avèrent aussi intelligents qu'un humain. Demain, les robots seront peut-être nos compétiteurs (à droite). Quel pouvoir auront-ils après-demain ? A nous de les définir et de baliser leur piste de bonnes intentions. Documents Boston Dynamics et 3Dexport.

De plus, à côté des inventions du département I2O du DARPA qui ont révolutionnées la technologie de l'information, ce sont les GAFAM qui aujourd'hui influencent le monde, c'est-à-dire des sociétés privées et non les gouvernements. Apple a révolutionné l'informatique mobile et discute d'égal à égal avec Intel. Amazon est devenue tellement efficace qu'elle met en péril les petites entreprises et l'économie locale et pèse de tout son poids dans les décisions politiques de certaines communes. La communauté de Facebook est capable de renverser un gouvernement comme elle peut influencer les élections et propager des rumeurs. Google racheta Boston Dynamics en 2013 et compte bien en profiter pour orienter dans le sens qui lui convient l'intelligence artificielle et le monde de demain qui frappe déjà à notre porte à travers tous ses gadgets intelligents contrôlables à distance via Internet.

A travers ces exemples, on voit déjà le rôle clé que peut avoir la technologie dans notre vie et son influence parfois négative sur nos décisions. Et ce n'est qu'un début. Est-ce vraiment le "meilleur des mondes" ? L'avenir nous le dira.

L'informatique, la production d'informations et la façon dont les progrès semblent toujours s'accélérer dans ce domaine ne sont que l'une des voies ramifiées qui pourraient nous conduire vers cette éventuelle Singularité Technologique. Mais ce n'est pas la seule.

Une autre voie importante concerne les progrès en nanotechnologie (cf. Nano.gov) et dans la technologie médicale (cf. Swiss Medtech) qui pourraient aussi nous conduire vers un horizon au-delà duquel l'avenir sera difficilement prévisible.

Troisième partie

Les voies de la nanotechnologie et de la technologie médicale

Page 1 - 2 - 3 - 4 -


Back to:

HOME

Copyright & FAQ