Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Aux origines d'Internet et de la micro-informatique

Espace disque et application virtuelles disponibles sur le SkyDrive de Microsoft. Document Microsoft Windows Blog.

2000, développement du Cloud computing (VII)

Depuis la création des BBS (1978), des réseaux locaux et WAN, des ordinateurs "diskless" et des stations Citrix (1980-85), on observa une demande accrue des professionnels pour accéder à des données stockées virtuellement, mais également à des applications et des infrastructures virtuelles. Cela facilite l'accès virtuel aux données qui sont centralisées en dehors de l'entreprise. Et même financièrement la société s'y retrouve car le support informatique et ses contraintes sont pris en charge par une société de services, ce qui réduit d'autant les ressources internes et le prix de l'informatisation pour l'entreprise. Cette stratégie est plus que jamais d'actualité.

Les hébergeurs de sites webs ainsi que les opérateurs ont progressivement offert au public et aux entreprises de l'espace disque puis des applications virtuelles (notamment une messagerie) sur leurs serveurs et même des plate-formes. Moyennant la signature d'un contrat, ils offrent également une garantie sur l'intégrité, la confidentialité et la disponibilté du service et des données. C'est principalement important pour des instituts financiers par exemple qui doivent fournir des données ou réaliser des opérations en temps réel mais cela concerne potentiellement n'importe quelle entreprise y compris des services publics (hôpitaux, ministères, etc).

C'est ce concept qui est à l'origine de ce qu'on appelle le "cloud computing", c'est-à-dire l'accès à des ressources informatiques virtuelles sur demande par l'intermédiaire d'une connexion Internet sécurisée.

Ce type de service intéressant des millions de personnes tant à titre privé que professionnel, grâce aux progrès réalisés dans la technologie des semiconducteurs, notamment des processeurs multi-coeurs, des mémoires de masse SSD (mémoire flash solid-state) et des lignes à très haut débit, certaines entreprises ont bâti des "data center" de plusieurs milliers de mètres carrés abritant des serveurs dédiés à cet usage.

Le public connaît principalement le Cloud à travers l'espace de stockage virtuel et de partage que les développeurs mettent à disposition des clients.

Cette infrastructure virtuelle existe notamment sous la forme du Cloud de Google, l'iCloud d'Apple, le SkyDrive de Microsoft, le Cloud Drive d'Amazon, l'Asus Web Storage, le Cloud de RealPlayer ou le Creative Cloud d'Adobe parmi d'autres.

Un netbook Acer Aspire One A110 proposé à 200 € en 2009. C'est l'un des plus petits ordinateurs portables. S'il peut se connecter à Internet, il peut se connecter au Cloud.

Les fabricants proposent également des solutions pour les entreprises tels que le Cloud de HP ou les entreprises elles-mêmes tels que Bull, IBM ou Unisys proposent de transformer les infrastructures existantes aux technologies du Cloud. Évolution du marché, des sociétés de services et de recrutement sont également spécialisées dans le support ou le commerce de ces infrastructures.

En souscrivant un compte gratuit ou payant à ce type de service, le client dispose en permanence d'un espace virtuel sécurisé (généralement payant au-delà de 5 ou 10 GB d'espace virtuel) et peut accéder à des applications virtuelles, comme par exemple une suite bureautique, une messagerie et des logiciels graphiques, libérant autant de ressources de son ordinateur (bien que certains "cloud" installent malgré tout des applications localement).

Cet avantage est précieux pour les internautes itinérants dont l'ordinateur portable ou la tablette offre des performances limitées mais qui souhaitent disposer où qu'ils se trouvent de versions synchronisées et à jour de leurs données et pouvoir travailler en mobile avec la même souplesse que chez eux ou au bureau.

Cette technologie est en plein essor, principalement dans le domaine du développement d'applications et d'infrastructures. Selon le cabinet Gartner Group, le Cloud qui était pour ainsi dire inexistant en l'an 2000, représentait 3% des investissements en informatique dans le monde en 2013 et devrait doubler ses investissements en 2020 et progresser ainsi de manière accélérée.

Aux Etats-Unis, près d'une entreprise sur deux investit déjà dans le Cloud. L'Europe suit le mouvement mais beaucoup d'entreprises ignorent encore qu'il existe. Quant aux autres, faute d'information de la part des sociétés de consultance ou du Ministère de l'Economie, elles ignorent souvent qu'il existe divers moyens de déploiement, de services, de mode de financement et tout le potentiel d'opportunités qu'offre le Cloud.

L'Europe porte également une attention toute particulière au Cloud, notamment à la protection des données à caractère perosnnel (où nous savons d'expérience que les Etats-Unis sont beaucoup plus souples).

Piratage du Cloud

Les protections des données sauvegardées sur le Cloud comme partout ailleurs sur le web ne semblent pas suffisantes puisqu'en août 2014 l'iCloud d'Apple fut la proie d'au moins un cyberpirate qui publia des photos privées de stars dénudées sur le web. Le pirate fut identifé grâce à la collaboration du FBI. Précisons que dans une affaire similaire (2012), le pirate fut condamné à 10 ans de prison ferme.

En tout état de cause, il faut en tirer une leçon : tout système informatique étant vulnérable, il faut mettre en place des mesures de sécurité. Veillez toujours à bloquer l'accès à vos données via un mot de passe et ne sauvez pas de documents à caractère privé sur Internet. Quand vous travaillez sur le Cloud activez toujours le système d'authentification de votre compte et chiffrez (encryptez) vos données (avec des outils tels que 7Zip, AxCrypt, Cloudfogger, GnuPG, PenProtect, Safebox, SpiderOak, etc).

2001, premier processeur multi-coeur d'IBM

En 2001, IBM annonça la commercialisation du premier processeur double-coeur, le POWER4 cadencé à 1 GHz et par la suite à 1.3 GHz et 1.9 GHz. Le coeur ou core du processeur est l'unité centrale de traitement ou CPU comprenant les instructions, le compteur ordinal, les registres de donnée et la mémoire. Un processeur double-coeur dédouble ces modules afin d'effectuer des opérations en parallèle et donc deux fois plus vite sans que lesingénieurs ne doivent doubler la vitesse d'horloge.

Le POWER4 est un processeur dual-core de 64 bits de technologie CMOS 8S3 et intégration SOI (Silicon-on-insulator). Contenant 174 millions de transistors, il offrait un taux de transfert ou débit (throughput) supérieur à 100 GB/s dans le cache mémoire L2 interne et de 35 GB/s de coeur à coeur !

Etat de la technologie en 2001. A gauche, le chipset double-coeur POWER4 d'IBM. A droite, le processeur Pentium 4 d'Intel.

Il sera suivi par le processeur Pentium 4 d'Intel de 32 bits cadencé à 3.4 GHz. Exploitant l'architecture NetBurst qui sera abandonnée par la suite et l'intégration VLSI, il contenait 175 millions de transistors, disposait de 423 pins, des canaux de 0.18 micron et était alimenté en 1.75 V.

Premier ordinateur-bracelet Zypad WL 100

Parmi les accessoires informatiques à porter au poignet et tirant profit de la technologie mutli-coeurs, en 2006 la société italienne Eurotech fabriqua le premier ordinateur-bracelet Zypad WL 1000 cadencé à 400 MHz.

Eurotech développa en parallèle un ordinateur multi-core baptisé apeNEXT constitué de 16 coeurs de processeurs capable d'exécuter 1.6 milliard d'opérations par seconde, ce qui représente une puissance de calcul de 1.6 gigaFLOPS (GFLOPS).

Le Zypad WL-1500 d'Eurotech.

Mais ces deux inventions furent boudées par le public. La raison était simple, le Zypad était proposé aux alentours de 2000$.

Quant à l'apeNEXT, il était déjà dépassé par le processeur Pentium 4 Gallatin (P4EE) de 3.4 GHz d'Intel sortit en 2004 qui atteignait 7 GFLOPS (mais au prix de 999$) et peu après par le processeur AMD Athlon 64 double-coeur atteignant 3.8 GFLOPS.

En 2011, Zypad proposa sa troisième génération d'ordinateur-bracelet, le modèle Zypad WL 1500 tournant sous Windows CE 6.0. Le produit est avant tout destiné à l'industrie ou à des marchés verticaux très spécifiques.

Cet appareil est équipé d'un écran TFT de 320 x 240 pixels, d'un haut-parleur, d'un micro, d'un GPS, d'une connexion 3G, d'un port microSD, USB, Bluetooth, audio et peut se connecter à Internet en Wi-Fi.

Dans le même ordre d'idée, notons que la société Universal Display Corp. en collaboration avec LG Display présenta en 2009 un prototype d'écran-bracelet OLED qui fut testé par les militaires (et ressemblant au fameux gadget "Pip-Boy 3000") dont voici une autre version.

2004, création de Facebook

Le 3 février 2004, Mark Zuckerberg alors étudiant à Harvard crée une application dans le but de permettre aux étudiants de l'université de partager via Internet des informations personnelles, notamment des images et des vidéos, et de s'envoyer des messages instantanés.

Son adresse initiale était "thefacebook.com". Dès le premier mois, la moitié des undergraduates du campus étaient inscrits sur le réseau social.

En mars 2004, quatre personnes dont un programmeur viennent aider Zuckerberg à développer et promouvoir son site. La société déménage à Palo Alto et enlève le "the" de sa raison sociale pour devenir "Facebook". Elle achète le nom de domaine pour 200000$.

Le service a tellement de succès que Facebook s'ouvre aux universités de Stanford, Columbia et Yale puis aux écoles de la région de Boston, et finalement à la plupart des universités américaines et canadiennes. Faceboook s'ouvre au reste du monde le 13 septembre 2006.

En 2007, Facebook annonce qu'il rend les fiches personnelles accessibles sur les moteurs de recherches comme Google, MSN ou Yahoo!, et non plus seulement dans les recherches limitées au cadre du réseau social.

En apprenant la nouvelle, Om Malik, expert auprès du portail GigaOm et ancien manager de Skype déclara : "un grand atout de Facebook était la protection des données privées. Cette illusion va disparaître. Cela transforme Facebook en quasi 'Pages Blanches' du net".

Aujourd'hui encore, il suffit de taper un nom au hasard pour afficher le profil public de la personne.

Mais Facebook est loin d'être un simple annuaire ou un réseau d'amis. Comme Spock ou MySpace, Facebook n'est pas un site sans but lucratif malgré les apparences.

Tous ces réseaux sociaux fondés sur des startups visent la rentabilité, les petites fortunes participant à l'enrichissement des plus grosses.

Car au delà de la publication de données privées entre amis, Facebook exploite en fait un créneau très porteur, celui de la publicité personnalisée, qui lui permit de lever 32 millions de dollars auprès d'investisseurs.

En 2007, la capitalisation de Facebook était estimée à 525 millions de dollars. En quelques semaines la société gagnait 200000$ en revenus publicitaires !

Face à ce succès, le 17 mai 2012, Facebook annonça son introduction en bourse. La société de Zuckerberg proposait 421 millions d'actions au prix de 38$ par action, valorisant la société à 104 milliards de dollars ! Malgré une dévalorisation de 24% deux semaines après son introduction et quelques plaintes en justice, Facebook reste une société importante sur le plan financier.

Le data center de Facebook à Prineville, en Oregon.

Le 1er février 2018, l'action Facebook (FB) atteignit sa cotation maximale de 193.09$ pour retomber à 155$ quelques semaines plus tard suite au scandale des adresses e-mails revendues à un client sans le consentement des utilisateur. Ceci dit, l'action Facebook a été multipliée par 5 en 5 ans ! Sa progression varie en fonction des annonces et des scandales mais est similaire à celle du développeur Adobe et plus régulière que celle d'Amazon, de Microsoft ou d'Apple. Son image reste néanmoins très fragile.

Facebook représente un fameux deal pour les investisseurs de capital à risque (ventures) et un marché potentiel gigantesque pour les entreprises.

En 2018, Facebook comptait plus de 2.13 milliards d'utilisateurs dans le monde (contre 1 milliard en 2012) dont 307 millions d'Européens. La moitié sont actifs et cette communauté s'agrandit de 14% par an, soit d'une centaine de membres toutes les deux secondes. La majorité des utilisateurs (29.7%) ont entre 25 et 34 ans. Notons qu'en 2019, Facebook supprima plus de 2 milliards de faux profils !

Chaque jour, Facebook génère plus 10 TB de données, 550 millions d'utilisateurs se connectent au réseau social et 1 milliard de statuts sont mis à jour quotidiennement. Ces données sont tellement volumineuses que pour les gérer Facebook a installé des data centers de plusieurs milliers de mètres carrés. Ce sont de Big Data !

Facebook s'est vite rendu compte que toutes ces données représentent de la valeur et pouvaient être rentabilisés, en particulier en établissant le profil des utilisateurs et en leur proposant des publicités ciblées. Pour les entreprises travaillant avec Facebook, les utilisateurs deviennent une source de profit et presque à leur insu (le fait de valider un "like" par exemple est signalé au fournisseur de ce produit qui ne tardera pas à envoyer des publicités ciblées dans le profil de l'utilisateur).

Revers de la médaille, pour y parvenir Facebook utilise des robots, des programmes qui lisent tous les données des utilisateurs, y compris les messages privés instantanés, afin d'affiner le profil des utilisateurs auxquels s'adresseront ensuite les fournisseurs.

Si cette manière de s'immiscer dans la prive privée est tolérée aux Etats-Unis, l'Europe s'y oppose farouchement en insistant sur le caractère privé des données personnelles qui n'ont pas à être examinées à son insu par un tiers ni stockées des mois durant sur des ordinateurs situés à l'étranger et hors contrôle des intéressés.

La question de la vie privée sur Internet fera encore couler beaucoup d'encre.

A voir : The Virtual World : a Facebook love story

Ce qui différencie le virtuel de la réalité

The Faces of Facebook

Profitant de la naïveté des internautes et de lois américaines laxistes, Facebook reste une société fragile et le moindre abus des données privées se paye cash comme ce fut le cas en 2018 où des millions d'adresses e-mails ont été vendues à l'insu des internautes à une société américaine proche de l'extrême droite. Zuckerberg s'est excusé et juré qu'il ne le ferait plus, mais le mal est fait. Aussi de nos jours, le moindre scandale touchant Facebook lui fait perdre des centaines de milliers de membres et notamment des entreprises dont celle d'Elon Musk qui n'ont plus accordé leur confiance à Zuckerberg. Face à de tels comportements sans aucune éthique et les risques que cela entraîne concernant le respect de la vie privée, dorénavant beaucoup d'internautes utilisent les réseaux sociaux avec parcimonie et de manière bien plus réfléchie : ils n'y mettent plus de données personnelles ou touchant leur vie privée et s'y connectent un peu moins qu'auparavant pour profiter un peu plus de la vie.

Finalement, comme pour oublier le passé, l'entreprise changea de nom pour s'appeler dorénavant META par référence au métavers dans lequel l'entreprise américaine a beaucoup investi en espérant de gros bénéfices (voir plus bas).

2005, création de YouTube

En février 2005, Chad Hurley, Steve Chen et Jawed Karim, trois anciens employés de PayPal fondent la société YouTube. Leur but est d'héberger des vidéos créées par les utilisateurs pour les proposer sur Internet en streaming afin que chacun puisse les consulter et éventuellement les commenter, les évaluer et les partager. Ce service a priori sans grand intérêt, connut rapidement un succès retentissant à travers le monde y compris auprès des entreprises et des institutions au point qu'en octobre 2006 l'entreprise fut rachetée par Google pour la modique somme de 1.65 milliard de dollars !

En 2009, YouTube était consulté par quelque 350 millions de personnes chaque mois. En 2020, ce nombre est passé à 2 milliards de personnes. En 2014, 2 heures de vidéos étaient mises en ligne chaque seconde. En 2018, 4333560 de vidéos furent visionnées chaque minute sur YouTube. Enfin, depuis 2010, plusieurs dizaines de vidéos totalisent plusieurs milliards de vues. En 2023, le record était détenu par la chanson enfantine "Baby Shark" de Pinkfong visionnée plus de 13 milliards de fois depuis 2016.

 Bref, YouTube est une affaire qui marche et qui a toujours eu un pas d'avance sur son concurrent français Dailymotion créé en mars 2005 que ne parvient toujours pas à séduire ne fut-ce que le public européen, loin devant Vimeo.

A voir : Me at the zoo, 2005

La première vidéo postée sur YouTube

La différence entre les trois plates-formes est que depuis toujours YouTube ne comporte aucune limite de téléchargement. En revanche, Dailymotion limite les téléchargements à 60 minutes de vidéos ou 2 GB et la qualité des enregistrements est limitée à une résolution de 1280x720p. Quant à Vimeo, les utilisateurs doivent choisir en 3 plans d'utilisation. Le plan de Base permet de télécharger 500 MB de vidéos par semaine contre 5 GB pour le plan Plus et un nombre illimité de vidéos mais avec une limite de 25 GB par fichier pour le plan Pro. Ces contraintes expliquent le succès de YouTube.

2006, Macintosh tourne sur Intel

Jusqu'ici, deux obstacles retenaient le public d'acheter un ordinateur Apple. D'abord son prix : dans leur version de base, l'Apple II de 1977 coûtait 2000$, le Macintosh SE 512 K de 1984 coûtait 3195$ et un Macintosh IIfx de 1990 coûtait 9800$. Si les prix étaient équivalents à l'étranger, certains modèles étaient deux fois plus cher en Europe. A la même époque (1990), on trouvait déjà des "IBM compatibles" à moins de 1000$.

Deuxième obstacle, les processeurs Motorola rendaient les Mac incompatibles avec les programmes tournant sous Windows, programmés pour le set d'instructions des processeurs Intel et compatibles (AMD, etc).

D'un côté Apple savait bien que s'il voulait récupérer les clients de Microsoft, il devait proposer une machine supportant Windows, mais cela équivalait à tomber dans le travers des PC, c'est-à-dire proposer une interface perfectible voire buguée et peu sécurisée avec tous les risques associés aux virus.

D'un autre côté, les Macintosh, MacBook Pro, Mac Pro et autres iMac ont toujours été considérés comme les meilleurs ordinateurs en terme de design, d'ergonomie, de qualité de l'interface, de programmation et de sécurité, une réputation d'excellence que n'ont jamais pu égaler les fabricants de PC compatibles et Microsoft, plus préoccupés par leur chiffre d'affaires et les parts de marché que par la qualité de leurs produits.

Le dilemme était donc le suivant : faire de la qualité dans un marché étroit ou assurer de fortes ventes au détriment de la qualité. Si la première solution n'était pas rentable à long terme sans innovation, la seconde était tout aussi insupportable. Et s'il y avait une alternative ?

En 1997, Apple racheta Next mais se trouvait à deux doigts de la faillite. Le conseil d'administation remercia le CEO Gil Amelio en place depuis un an et proposa son poste à Steve Jobs. Steve déclina la proposition mais proposa de devenir membre du conseil d'administration, avant de devenir CEO.

Après avoir été écarté d'Apple et connu le stress de voir sa propre société Next quasiment en défaut de paiment, Steve Jobs avait acquis de la maturité, il était devenu plus tolérant et voyait le monde différemment. Il était bien décidé à relancer les affaires d'Apple dans un tout autre contexte économique qu'il y a 12 ans.

Après le départ de Rick Rashid d'Apple pour Microsoft et afin de récupérer des parts de marché, en 2005, en préambule au congrès d'Apple au World Wide Developer Conference (WWDC), Steve Jobs annonça qu'il allait greffer un processeur Intel sur la légendaire pomme, tout en précisant qu'il réservait l'exclusivité du MacOS aux Apple.

En fait cette idée avait été longuement discutée entre Steve Jobs et Bill Gates. C'était le meilleur deal commercial tant pour Apple que pour Microsoft. En effet, si Steve Jobs voyait ainsi ses concurrents s'intéresser à ses machines, Bill Gates s'assurait la pérénité des ventes de ces licences dans le monde Mac, un marché qui n'était pas négligeable, bref c'était un accord "win-win" où tout le monde gagnait au change.

Ainsi, en 2006, Intel équipa le premier Mac Pro d'un double processeur Xéon à 8 coeurs cadencé à 3 GHz, pulvérisant la puissance du Power Mac G5 quad-core.

Aujourd'hui les Macintosh-Intel exploitent sans problème Windows XP et, après quelques déboires avec les fonctions 3D et aéro, ils fonctionnent également sous Windows Vista, grâce à la technologie Boot Camp ou sous Windows 7 et supérieur grâce à Parallels Desktop. Désormais Apple, Intel et Microsoft n'ont pas d'autre choix que de coopérer s'ils veulent progresser.

Cela n'a pas empêché Steve Jobs de proposer en 2007 une mise à jour radicale de son système d'exploitation, avec la version "Leopard" de MacOS X.

A gauche, le système d'exploitation Mac OS X Leopard sorti le 26 octobre 2007. A droite, l'iMac sorti la même année et équipé d'un processeur Intel.

Grâce à la puce Intel, aujourd'hui tous les Apple supportent Windows mais dans une partition séparée du disque afin de protéger la partition MacOS. Apple y gagne sur les deux plans : il conserve ses clients et gagne l'attention des utilisateurs de PC recherchant une machine plus ergonomique ou une première expérience sur Mac. Un premier pas vers leur fidélisation.

Quant au prix, toute la gamme des ordinateurs Apple, allant du MacBook au MacPro en passant par l'iMac sont vendus entre 1000 et 2500 €.

A l'avenir, on peut estimer que plus d'un utilisateur passeront du monde PC au monde Mac. Il y a effectivement un monde de différences et une ergonomie sans pareil dans les produits d'Apple, sans parler qu'en exploitant un OS dérivé de Unix, ils sont à l'abri de la plupart des virus.

Précisons toutefois que la partition Windows des Apple est toute aussi  vulnérable aux virus que n'importe quel PC; c'est l'environnement système de Microsoft qui présente d'importantes vulnérabilités, pas celui du MacOS, encore moins le processeur.

2006, Sony commercialise le premier lecteur de livre numérique ou liseuse

C'est en 2006 que Sony proposa son premier lecteur de livre numérique ou liseuse "eBook Reader", le modèle PRS-500. Pesant 250 g et mesurant 17.5 cm (6.9") pour 13 mm d'épaisseur, elle était munie d'un port USB et supportait les formats DRM, MP3, JPG et RSS notamment.

Aujourd'hui, grâce à la disponibilité d'Internet et des hot spots Wi-Fi, le dernier modèle de liseuse Sony PRS-T3 de 6" fonctionne uniquement en Wi-Fi et revient à 140€ ou 99 € sans rabat (PRS-T3S). Par rapport au premier modèle son prix a été divisé par trois.

La liseuse "eBook reader" PRS-500 de Sony (2006).

A son tour, en 2007 Amazon sortit sa liseuse "Kindle". Equipée d'une connection Wi-Fi et d'un écran tactile de 6", elle pèse 213 g et peut contenir 3000 livres. Son prix est actuellement inférieur à 130 €.

Depuis d'autres fabricants sont apparus sur le marché. Amazon reste toutefois le plus important fournisseur de livres et de quotidiens au format électronique avec plus de 80000 titres en ligne fin 2013. On y reviendra dans l'article consacré aux technologies du futur et aux écrans souples OLED.

Ceci dit, la mort du livre et des journaux en papier n'est pas encore annoncée. Le support numérique comme le support papier offrent chacun des avantages et des inconvénients.

L'avenir incertain du support papier

Le premier qui disparaîtra sera certainement le quotidien de papier qui, sauf exception, accuse déjà aujourd'hui une baisse d'audience qui atteint parfois 35% au bénéfice des actualités en ligne. Pourquoi ? Car la majorité de la population dispose d'un ordinateur de bureau, d'un smartphone ou d'une tablette et d'un accès à Internet. Les actualités y sont disponibles en permanence et toujours à jour sur un site ou un autre.

Par abonnement l'internaute peut même consulter des articles de fond ou des documents historiques, y compris des vidéos et trouver des hyperliens utiles lui offrant finalement des informations souvent bien plus complètes que ne le ferait le reporter le plus zélé d'un journal papier limité par la nature de son support.

Ensuite, l'avenir du livre traditionnel est également incertain. Depuis les années Internet et certainement depuis 2010 environ, il est plus difficile de vendre des livres encore moins de liquider une bibliothèque de livres d'occasion car les clients se font rares; les jeunes en particulier lisent moins que leurs aînés et achètent moins de livres, préférant les supports numériques voire d'autres loisirs.

En revanche, rien ne vaut le plaisir de lire et de physiquement tourner les pages d'un vrai journal ou d'un livre, de regarder des photos d'actualités dans un magazine, si bien que les deux supports, numérique et papier (du moins les plus grands éditeurs), continueront probablement à vivre en parallèle durant quelques décennies encore. Mais dans tous les cas le journaliste ou l'auteur d'aujourd'hui doit avoir la double casquette, rédacteur de papiers et rédacteur web.

Les tablettes

Dans beaucoup de films véhiculant une image de haute technologie, on retrouve soit une tablette soit un émetteur (transceiver) radioamateur et parfois on reconnait la silhouette d'une lunette astronomique ou d'un télescope catadioptrique robotisé à l'arrière-plan quand ce n'est pas un superordinateur. Ce sont des produits high-tech qui font aujourd'hui partie de notre culture au même titre que le smartphone, le GPS et la mpontre connectée au détriment de l'autoradio ou de la Rolex de papa.

L'apparition des tablettes dans de nombreux films et notamment de science-fiction (cf. la série "Stargate" depuis 2002) est révélatrice d'une évolution du marché. En effet, depuis 2012 on constate que tous les trimestres la part de marché des ordinateurs de bureau chute de 10% dans les pays occidentaux au bénéfice des tablettes et autres appareils mobiles.

Le marché des tablettes est en pleine croissance car elles sont petites et légères et très utiles dans un monde de l'information de plus en plus médiatisé à travers les radios et chaînes TV en ligne, les webzines, les réseaux sociaux et autres flux RSS. Grâce à ces services, chacun peut consulter quand il veut et pratiquement d'où il veut des informations multimédia (images, vidéos, musique) et communiquer facilement par Internet grâce à une liaison Wi-Fi sans être obligé de rester à son domicile.

Deux conceptions de l'informatique nomade. A gauche, le tablette PC "Surface Pro" de 10.6" de Microsoft proposé à partir de 879 € en 2012. Il existe une version haut de gamme 50% plus chère. A droite, la tablette Samsung Galaxy 7.7 (7") tournant sous Android proposée à 400 € en 2012. Si certains modèles sont très performants, cela reste des ordinateurs d'appoint, peu pratiques pour le tavail bureautique et avant tout destinés à naviguer sur Internet, à visionner des documents et à communiquer.

Car c'est bien dans la portabilité et la versatilité que se trouve l'intérêt des systèmes mobiles et en particulier des tablettes. En pleine charge vous pouvez l'utiliser sans liaison câblée dans votre jardin, dans la voiture, sur le lieu de vos vacances, y compris sur la plage ou en montagne s'il y a du réseau. Et quand on y a goûté, on ne peut plus s'en passer. Ceci dit, beaucoup de personnes n'ont pas jeté pour autant leur ordinateur de bureau ou leur portable qui est en général plus performant que leur tablette. Ceci dit, une tablette PC haut de gamme comme la "Surface Pro" de Microsoft peut encore surprendre plus d'un expert. Plus qu'une tablette c'est en fait un ordinateur portable sous stéroïdes à écran tactile équipé de plusieurs ports externes et optionnellement d'un clavier séparé dont les performances dépassent celles de beaucoup d'ordinateurs portables ordinaires ou des anciennes générations. Comme la tablette d'Apple (iPad) réputée très réactive et d'une qualité exemplaire, le prix de ces modèles haut de gamme est évidemment en rapport avec leurs performances.

Ceci dit, pour quelques années encore, l'ordinateur de bureau va garder un atout de taille, celui de sa modularité : ses composants peuvent aisément être remplacés voire mis à niveau. De plus il accepte plusieurs cartes ou interfaces et dispose en général de 4 à 8 ports USB contre 1 à 3 sur un ordinateur portable voire aucun port standard sur certaines tablettes.

Mais à puissance et ressource égales, le faible encombrement des ordinateurs portables et des tablettes allié à leur faible poids (1 à 3 kg en général) plaident en leur faveur, et plus encore aujourd'hui avec les nouvelles technologies, la disponibilité des liaisons Wi-Fi et la baisse des prix. On reviendra en détails sur ces sujets dans l'article Tablette et Web 3.0 et celui consacré au marché informatique.

2007, l'iPhone

Jamais à cours d'idées innovantes, c'est également en 2007 que Steve Jobs présenta au public son nouveau concept de téléphone portable, son emblématique iPhone que ses concurrents s'empresseront de copier, tellement l'invention fut géniale.

Si on se réfère à la publicité de "RadioShack" présentée ci-dessous, un document original non truqué, en 1991 vous pouviez acheter séparement un téléphone portable, un répondeur, des écouteurs, des haut-parleurs, un ordinateur, un lecteur de cassette, une radio portative, une caméra, un récepteur météo, un scanner, bref autant d'appareils électroniques n'offrant qu'une seule fonctionnalité. Ensemble, ces appareils revenaient à environ 3200$, un peu plus de 5100$ ou 3500 € actualisés (2015) !

En sortant son iPhone à 499$, qui fut proposé à 399$ pour la Noël 2007, en un peu plus de 15 ans et grâce à la loi de Moore et au génie de Steve Jobs, la technologie permit à Apple d'intégrer tous les produits précités dans un seul smartphone tenant dans la main et 10 fois moins cher ! Aujourd'hui le smartphone le plus simple coûte à peine 50 € et pour 200 € vous pouvez avoir un smartphone assez performant.

En terme de ventes, rien qu'avec son iPhone, Apple fait un chiffre d'affaires supérieur à toutes les applications vendues par Microsoft !

A voir : The Decline of RadioShack...What Happened?

A gauche, Steve Jobs présentant son iPhone en février 2007. Il fut commercialisé le 29 juin 2007 aux Etats-Unis au prix de 499$ pour le modèle de 4 GB. A droite, une publicité de RadioShack de 1991. Tout ce qu'elle proposait séparément pour une somme globale de 3200$ (5100$ ou 3500€ actualisés en 2015) est à présent intégré dans un smartphone 10 fois moins cher et jusqu'à 50 fois plus rapide (412 MHz contre 8 à 25 MHz pour le PC 80286) !

Grâce à son esprit visionnaire et en brisant toutes les barrières technologiques et commerciales, Steve Jobs a permis à l'action de sa société de s'envoler en Bourse.

Selon Tim Scott, en 2013, si on compte tous les "iDevice", Apple a vendu 250 millions d'appareils mobiles dans le monde. L'iPad commercialisé en 2010 représente 74% du marché des tablettes. Avec ses 40 millions de titres en 2018, iTunes Store a plus de 31 millions de fans sur Facebook !

10 ans après sa création, en 2018 plus de 3 millions d'applications sont disponibles sur l'Apple Store dont plus de 783000 jeux. A ce jour, quelque 180 milliards d'applications ont été télécharchées depuis l'Apple Store.

A voir : Le discours de Steve Jobs à Stanford en 2005

A lire : Apple, la référence en termes d’innovation de rupture, Innovation en action

Au total, en 2018 Apple présentait un chiffre d'affaires dépassant 60 milliards de dollars par an, dont plus de 63% étaient représentés par les ventes d'iPhone, mais cette proportion a déjà été deux fois inférieure.

Plus que jamais, Apple reste une société innovante dont les produits ont maintes fois été primés : Macintosh, iBook, Mac OS X, iLife, iPod, iPad, iPhone.

Il n'y a pas de doute, Apple est une affaire qui marche malgré la disparition de Steve Jobs le 5 octobre 2011. Globalement l'entreprise est riche et florissante et peut sereinement envisager l'avenir au point qu'elle pourrait vivre de ses rentes.

2010, l'ère du Zettabyte

Dans les années 2010, l'humanité est entrée dans ce qu'on appelle "l'ère du Zettabyte", où la quantité de données générées était égale à un sextillion (1021) d'octets. Selon Statista, le volume de données créées entre 2010 et 2020 est passé de 2 à 64.2 ZB – une augmentation de 32% chaque année – et devrait atteindre 181 ZB d'ici 2025, soit une augmentation de 36% chaque année. En parallèle, la capacité mondiale de stockage devrait atteindre 16.12 ZB d'ici 2025. Au moins 70% de ces données sont des documents peu ou jamais consultés tels que des copies sur supports magnétiques ou optiques et des archives.

2012, l'apprentissage profond de l'IA

L'intelligence artificielle (IA), c'est-à-dire la reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité (définition du Parlement européen) a tendance à envahir tous les secteurs impliquant la prise de décision dans le cadre de la gestion d'un grand nombre de données (Big Data) ou de données complexes.

L'industrie 4.0 ou l'homme face au robot épaulé par l'IA. Photomontage basé sur une photo d'iStockPhoto.

Depuis l'invention de la machine universelle de Turing, les ingénieurs, les mathématiciens et les développeurs notamment n'eurent de cesse d'améliorer les systèmes de gestion de données et notamment les méthodes d'apprentissage pour convertir de manière plus précise et plus rapidement les idées et les processus mentaux en solutions informatiques et autres modèles que les IA pouvaient intégrées. Une avancée importante dans ce domaine fut l'apprentissage profond ou deep learning qui vit le jour en 2012.

En résumé, le système d'IA exploite des réseaux neuronaux (plus proche de la structure du cerveau humain) et des représentations de données propres à une tâche et non plus des algorithmes comme dans l'IA symbolique. L'IA est capable d'apprendre par elle-même mais d'une façon différente de la logique humaine. Cependant pour certaines prises de décisions critiques, l'IA doit être supervisée par un humain.

On qualifie l'apprentissage de "profond" par opposition à l'apprentissage automatique non profond du fait qu'il effectue un très grand nombre de transformations (une transformation correspond à une unité de traitement) sur les données entre les couches d'entrée et de sortie.

En apprentissage profond, l'IA est donc capable de retrouver le concept original derrière une image modifiée par exemple (un animal qui ressemble à un chat portant des lunettes n'est pas un être humain mais bien un chat). Mais même de cette façon, la réponse de l'IA doit être supervisée par un humain, tout spécialement dans les domaines à risque (médecine, etc). En effet, si dans le domaine artistique par exemple l'erreur d'une IA générative n'a pas d'autre conséquence que de générer au pire une chimère au lieu du portrait de la Joconde, dans l'industrie une erreur peut-être fatale.

Nous reviendrons en détails sur l'IA et ses relations avec la cybernétique et la robotique dans l'article référencé ci-dessus.

2014, le connecteur USB type C

Pendant des années, nous avons tous été confrontés à la pléthore de connecteurs d'alimentation pour les appareils connectés. En effet, jusqu'alors chaque fabricant proposait son connecteur - il existe 14 types différents de connecteurs USB - qui était parfois différent d'un modèle à l'autre !

En 2014, l'USB Implementers Forum a voulu résoudre ce problème au bénéfice des clients en proposant le connecteur standard USB de type C qui fut normalisé par l'USB-C 2.1 en 2021.

Si la majorité des constructeurs était favorable à ce choix, y compris des constructeurs asiatiques comme Samsung qui l'utilisait déjà depuis quelques années, Apple s'y opposa, notamment du fait qu'il avait développé le connecteur Lightning et que cela représentait soi-disant une entrave à sa "liberté d'innover". Mais en vain. S'il voulait encore vendre du matériel en Europe, Apple allait devoir s'adapter dans l'intérêt commun.

Selon les estimations du Parlement européen, ce petit connecteur USB C allait permettre de faire des économies allant jusqu'à "250 millions d'euros par an" pour les consommateurs et limiter les déchets électroniques (estimés à 11000 tonnes par an rien que pour les chargeurs jetés).

A gauche, l'éventail des connecteurs et prises d'alimentations dont 14 concernent le port USB. Il faut y ajouter tous les connecteurs coaxiaux, RJ45 et autre RJ11 et spéciaux. A droite, le connecteur USB type C vers USB 2 type A. Documents PRR Computers et D.R.

En septembre 2021, la Commission européenne proposa que les constructeurs de smartphones et de tablettes utilisent le port USB type C. Cette décision fut entérinée par le Parlement européen le 4 octobre 2022. L'obligation prendra cours en 2024.

Le connecteur USB C offre l'avantage d'être réversible et d'être adapté à de nombreux usages (alimentation électrique, transfert de données, branchement de câble audio, sortie vidéo, etc.). Mais cela ne signifie pas que le câble prend en charge tous les usages possibles. Comme sur les systèmes vidéos, TV comprises, certains ports offrent des fonctionnalités plus étendues. Si on veut tout harminer, il reste du chemin à faire. Cela reste néanmoins un progrès très apprécié du public dans un marché ouvert.

2016, la carte eSIM

La première version de la norme eSIM fut publiée en mars 2016 par le GSMA. Cette technologie remplace la carte SIM par une carte virtuelle eSIM (Embedded Subscriber Identification Module).

Une eSIM désigne une carte SIM "intégrée" ou plutôt dématérialisée dans le smartphone. Vous n'avez plus besoin de carte SIM physique et cela évite les manipulations pour l'installer et la désinstaller. En effet, pour l'activer il suffit de simplement scanner un QR code ou d'encoder un numéro secret sur le site de l'opérateur. L'activation est immédiate. 

L'eSIM est disponible pour la plupart des smartphones, y compris les anciens modèles (Samsung Galaxy A3, etc) via l'app eSIM.me. Précisons qu'actuellement changer d'une nanoSIM à une eSIM est un service facturé par votre opérateur (10-20 €).

Ceci dit, l'usage de l'eSIM n'est pas (encore) obligatoire et les utilisateurs peuvent toujours utiliser une carte nanoSIM (sauf sur les iPhone 14 aux Etats-Unis depuis 2022). Mais à terme, le port SIM disparaîtra des smartphones et il faudra penser à transférer les données (messages, contacts, photos et vidéos) sur le Cloud.

A voir : TOUT savoir sur l'eSIM, la carte SIM dématérialisée, Phonandroid

2018, les plus petits ordinateurs du monde

Pour montrer à quel point la technologie progresse vite et que les appareils se miniaturisent, lors de la conférence IBM Think qui s'est tenue le 19 mars 2018, IBM présenta la plus petite puce électronique (chip) du monde qui mesure seulement 1 mm de côté.

La puce électronique qui se confond avec un grain de sel comme on le voit ci-dessous à gauche, intègre suffisamment de puissance de calcul pour gérer les tâches de base de l'IA et travailler avec la blockchain (la technologie derrière les bases de données distribuées). En plus d'être puissante, elle est également bon marché, coûtant moins de 10 cents à fabriquer.

Mais le défi ne convenait sans doute pas à l'équipe de David Blaauw, professeur d'ingénierie électrique et informatique à l'Université du Michigan qui détenait auparavant le record du plus petit ordinateur au monde avec une puce de 2x2x4 mm. Après des mois de développement, les ingénieurs de Michigan ont annoncé qu'ils avaient battu leurs collègues. Cette fois, la puce électronique qu'ils ont fabriquée présentée ci-dessous à droite ne mesure que 0.3 mm de côté. Elle tient sur l'épaisseur d'une pièce de monnaie. Après installation de la RAM, de l'alimentation, de l'antenne et des périphériques IoT (Internet des Objets) dont les moyens RF et encapsulation, le capteur opérationnel mesure 4x4x5 mm et est suffisamment léger pour être porté par un insecte comme un papillon..

Selon Blaauw, "Nous ne savons pas s'ils doivent être appelés ordinateurs ou non. C'est plus une question d'opinion s'ils ont les fonctionnalités minimales requises." Cependant, si IBM voulait qualifier son appareil d'ordinateur, l'équipe de Blaauw ne s'y opposerait pas.

A gauche, 64 cartes-mères contenant des puces électroniques de 1 mm de côté mises au point par IBM en 2018 et la taille d'une telle carte-mère posée sur un tas de sel. A droite, la puce électronique de 0.3 mm de côté mise au point par l'équipe de David Blaauw de l'Université du Michigan en 2018. Documents IBM via Mashable et D.Blaauw/U.Michigan.

Ce type de système informatique peut être utilisé à différentes fins, notamment en imagerie et comme capteur de température dans le cadre de la recherche sur les tumeurs sachant que la température affecte les traitements contre le cancer.

Rappelons qu'en 2021, des chercheurs de l'Université de Columbia mirent au point une puce électronique dont le volume total est inférieur à 0.1 mm3. De la taille d'un grain de sable, la puce en technologie CMOS peut être implantée via une aiguille hypodermique pour mesurer la température interne du corps, et potentiellement assurer d'autres fonctions (cf. C.Shi et al., 2021).

Quand on sait qu'une fois encapsulé ce type d'appareil mesure moins de 1 cm3 et est plus léger qu'un papillon, on peut envisager mille applications qui vont de l'imagerie assistée par l'IA, y compris la sécurité et la surveillance, à la recherche appliquée en passant par toutes sortes de détecteurs miniaturisés. Comme se demanda IBM dans un tweet publié en 2018, "A quoi ressemblera la vie dans 5 ans ?".

2021, développement du métavers

Le concept d'univers virtuel remonte à l'invention des ordinateurs graphiques à la fin des années 1970. Toutefois, le concept de métavers fut inventé par Neal Stephenson dans son roman "Snow Crash" paru en 1992 (cf. Le Samouraï virtuel, 1996). Dans ce livre l'auteur décrit un monde virtuel futur postcyberpunk, dystopique, mais dont la fin est positive.

Dans ce monde imaginaire, l'activité économique et les richesses croissent en fonction du développement du métavers. Le métavers est une structure informatique bâtie sur des protocoles dont les codes informatiques font loi dans la vie réelle. On accède aux univers virtuels du métavers via un avatar, une représentation virtuelle de soi. Trois méthodes d'accès sont proposées : des terminaux publics lents car d'une ancienne génération, des lunettes de réalité virtuelle et augmentée (AR-HUD) ou une interface hybride bio-intégrée (gargoyle).

C'est dans ce genre de réalité virtuelle qu'ont évolué divers programmes et jeux informatiques. Tout commença avec les simulateurs de vols professionnels utilisés par les constructeurs en aéronautique pour entraîner les pilotes. On ajouta ensuite de l'intelligence artificielle (I.A.) à ces logiciels de simulation et de conception assistée par ordinateur afin que les professionnels exploitent plus facilement ces systèmes virtuels, en particulier pour fabriquer des machines ou des moyens de transports (automobiles, navires, etc) ainsi qu'en médecine pour établir des diagnostics médicaux ou simuler des phénomènes biologiques afin par exemple de mieux gérer la douleur.

Dans le monde du jeu virtuel, on retrouva des jeux de simulation comme "Flight Simulator" développé en 1977 par Bruce Artwick de SubLogic. En 1985, Lucas Arts en partenariat avec America Online proposa le jeu "Habitat" aux utilisateurs du Commodore 64. En 1993, Steve Jackson Games proposa un système virtuel (MMO) sur le BBS Illuminati Online appelé "The Metaverse". Le plus grand succès fut Second Life distribué en 2003 qui dépassa les 70 millions d'inscrits en 2021 mais seulement 200000 utilisateurs actifs quotidiennement. Depuis 2011, Google Earth propose gratuitement à travers son système d'information géographique (SIG ou GIS) et d'imagerie satellite une plate-forme virtuelle qui se greffe sur les données du monde réel.

En novembre 2021 Mark Zuckerberg de Facebook annonça la création de la plate-forme Meta afin d'accélérer le développement de mondes virtuels dans le métavers. Selon Zuckerberg, le métavers est "le futur de l'Internet". Mais face à la grosse interrogation des aspects commerciaux et de la rentabilité du métavers, beaucoup de clients restent dubitatifs ou n'y croient pas, ce qui fit chuter l'action de Meta Platforms de 352.7$ fin 2021 à 88.09$ fin 2022 ! Cela conduisit au licenciement de 11000 salariés chez Meta. Bref, l'avenir est incertain.

Enfin, Microsoft entrera dans la course au métavers en novembre 2022.

A voir : Le métavers et comment nous allons le construire ensemble, Meta, 2021

L'avenir

Faisant l'objet d'innovations permanentes, il est difficile d'entrevoir l'avenir de l'informatique et moins encore d'Internet au-delà d'une génération sans imaginer des inventions chimériques ou ridiculement obsolètes, comme si Jules Verne (1828-1905) par exemple allait utiliser un moteur à vapeur pour alimenter un smartphone !

Imaginer ce que sera l'informatique de 2050 et au-delà est donc tout à fait irréaliste, n'en déplaisent aux experts en prospective. A toute bonne fin, consultez les articles listés ci-dessous pour avoir quelques tendances.

Je remercie Dave Walden pour ses explications concernant l'histoire d'ARPANET.

Pour plus d'informations

Sur ce site

Les technologies du futur

L'ordinateur du futur

La médecine sans fil

Les robots au service des hommes

Avantages et inconvénients de l'intelligence artificielle

Le Meilleur des Mondes ou les dérives de la société

Internet pour le meilleur et pour le pire

Second Life

La loi de Moore

Le marché informatique

Tablette et Web 3.0

La cybercriminalité

Le scandale du marché parallèle des déchets high-tech (sur le blog)

Actualités, portails et forums

BestofMicro, Comment ça marche, L'ordinateur individuel, Clubic, Ere Numérique,

Les Numériques, Matbe, Tom's Hardware alias Presence PC, X-bit labs

Comparatifs sur Tom's hardware

Les Numériques

CNet France

01 Net (01 Informatique)

Gizmodo France (US)

engadget

Statistiques

TOP500 des superordinateurs les plus rapides

Internet World Stats

The World in 2013: ICT Facts and Figures, UIT

Measuring the Information Society, UIT

Test de connexion à Internet : Test de débit sur JDN, Speedtest

Livres et magazines

The Internet of Things, Samuel Greengard, MIT Press, 2015

How the Web was born, James Gillies, Oxford University Press, 2000

Inventing Internet, Janet Abbate, MIT Press/New Ed, 2000

Les archives de BYTE Magazine

State of the Art: A Photographic History of the Integrated Circuit, Stan Augarten, Ticknor and Fields, 1983

Vidéos

Le métavers et comment nous allons le construire ensemble, Meta, 2021

BYTE Mag 1991-1997 (les couvertures en vidéo)

Memex animation - Vannevar Bush's diagrams made real, YouTube

The Decline of RadioShack...What Happened?, YouTube

Interviews de Tim Berners-Lee (via Google)

Quand l'Internet fait des bulles (Histoire de l'Internet français, dont voici la critique),13eme Rue

Tablet Newpaper (1994), (Tablette de Fidler), YouTube

Microsoft Company 15 September 1975

1983 Apple Event Bill Gates and Steve Jobs, YouTube

Première publicité pour le Macintosh, 1984, YouTube

Sur le web

Cours d'informatique, 802 cours proposés par Open Classrooms

AntéMémoire, Musée de l'Informatique à Paris La Défense

Histoire de l'Informatique.org

Histoire de l'informatique, Vision Futur

Historique de Windows

Le Rayon des Calculettes

Comment Ca Marche

Comprendre la fibre optique, Amphenol

At the Control (groupe Facebook)

Vintage Calculators Web Museum

Calculator Museum, Mr. Martin's Web Site

Casio Ads from Magazines

Evolution of the web

IEEE Computer Society

History of ARPANET, Michael Hauben

A Brief History of the Internet, ISOC

A Short History of Internet Protocols at CERN, Ben Segal/CERN

Tim Berners-Lee Talks and Articles, W3 Web

Bell Labs

IBM Archives

National Physical Laboratory (NPL)

Computer History Museum

Science Museum (Londres)

Facts and stories about Antique (lonesome) Computers

A Third Survey of Domestic Electronic digital computing system, M.Weik, 1961

EMU8086 Original Microprocessor Emulator (.zip)

Computer Retro

NeXT

Steve Wozniak

L'aventure Apple

Apple, la référence en termes d’innovation de rupture, Innovation en action

The History of Apple in under 10 minutes, rickt42uk, YouTube

Apple Expo

Apple II History (voici une traduction française mais partielle et contenant des erreurs)

WWDC

Smart Watch News

Android

Apple
LG

Samsung

Sony Europe

Gilles Babinet - Numérique et Compétitivité

The Lives and Death of Moore's Law, Ilkka Tuomi/First Monday.

Retour aux Technologies

Page 1 - 2 - 3 - 4 - 5 - 6 - 7 -


Back to:

HOME

Copyright & FAQ