Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Tablette et Web 3.0 ou l'informatique du futur

Le tabletPC Dell Latitude XT.

Analyse des tendances technologiques

Pour connaître les tendances technologiques dans le secteur de l'informatique, il suffit de regarder un bon film récent d'espionnage (James Bond), un policier (Les Experts: Miami) ou de science-fiction (Stargate SG-1).

Sachant que le scénariste s'adresse notamment à un public passionné de science et de technologie, il n'hésitera pas à placer dans le décor des appareils innovants, plébiscités par la presse spécialisée et les utilisateurs avertis.

Récemment, nos chaînes de TV ont passé un nième épisode de la série culte "Stargate SG-1 - Atlantis" intitulé "Chassé-croisé" mettant en vedette plusieurs acteurs de la série originale. On aurait dit que l'USAF ou plutôt la production leur avait offert à tous un tablette PC, ce qui tend à démontrer qu'ils leur ont trouvé une utilité pratique, une idée qui échappait encore aux premiers critiques du produit.

Ces supports numériques sont encore plus utilisée dans le domaine de la finance et du négoce où dans les salles de marchés d'aujourd'hui la plupart des "traders papiers" ont remplacé leur bloc-note par une tablette ou un tablette PC.

Vu l'intérêt des clients pour ce genre d'interface, la tablette et ses dérivés sont promus à un bel avenir et vont certainement concurrencer voire remplacer à terme l'ordinateur portable classique à mesure que la taille de l'écran et leurs performances s'amélioreront.

En parallèle, dans la série "Les Experts : Miami", les inspecteurs interrogeaient Internet ou leurs bases de données en langage naturel, laissant croire aux spectateurs que le système était capable d'interpréter le sens des mots. Si le système Siri d'Apple et le Web 3.0 entrevoient cette possibilité, il y a encore des progrès à faire.

Ici également la technologie dite Web 3.0 est en cours de développement ainsi que nous allons le découvrir et devrait à terme révolutionner notre manière d'appréhender l'informatique, d'utiliser les moteurs de recherches et les périphériques.

Le tablette PC

C'est en 2002 que le tablette PC est apparu sur le marché. Destiné en premier lieu aux activités mobiles professionnelles (représentants, commerciaux, policiers, opérateurs, scientifiques, etc), il s'agit d'un ordinateur portable graphique sans clavier qui permet de travailler dans un environnement bureautique grâce à une interface tactile.

La plupart des modèles ont un écran de 10" à 12" au format 4:3 ou 16:9, font à peine 1.35 cm d'épaisseur et pèsent entre 0.6 kg et 2 kg. Ils exploitent un processeur multicoeur cadencé entre 1 et 3 GHz à faible consommation et tournent sous Windows (version XP TabletPC, Windows RT, Windows 8.1 Pro, etc.).

Le tablette PC est alimenté par une batterie Lithium-Ion ou Lithium-Polymère (LI-PO) qui présente une autonomie de 5 à 8 heures. Sa mémoire vive (DRAM) varie de 2 à 8 GB, la capacité du disque dur en technologie SSD (mémoire flash) variant entre 64 et 512 GB dont 40 à 60 GB sont occupés par le système.

Description d'un tablette PC. Document PDAFRance

Le tablette PC est généralement équipé d'un stylet, d'un port USB 2.0 ou 3.0, microSD, mini DisplayPort (pour les interfaces audio-visuels numériques), de haut-parleurs, de capacités Wi-Fi et Bluetooth 4.0, d'une entrée micro, casque, d'une ou deux caméras HD (une par face), parfois complétés par une docking station et un câble HDMI.

Optionnellement on peut le relier à un clavier externe, une souris, un lecteur CD/DVD/Blu-Ray via le port USB, installer un adaptateur USB/RJ-45 pour le relier au réseau TCP/IP, micro DisplayPort/VGA pour le connecter à l'écran d'un ordinateur ou encore mini DisplayPort/AV HD pour le connecter à une télévision.

Bien entendu, connecté à Internet en Wi-Fi, comme la tablette ou le smartphone, le tablette PC peut accéder au Cloud (par exemple au Cloud de Google, SkyDrive de Microsoft, à l'iCloud d'Apple ou à l'Asus Web Storage) et disposer d'un espace disque virtuel illimité et sécurisé (mais payant au-delà de 5 ou 7 GB) ainsi que d'applications virtuelles qui épargneront les ressources de l'ordinateur.

Faisant appel à de la haute technologie (processeur multicoeur, disque dur SSD, USB 3.0, batterie LI-PO, etc), le prix d'un tablette PC reste relativement élevé, oscillant entre 339 € pour un modèle de base à plus de 1200 € ttc pour une configuration complète avec tous ses accessoires.

Comme les smartphones et la majorité des tablettes, les tablettes PC utilisent un écran LCD de technologie IPS offrant un contraste voisin de 1000:1. 

Il existe deux types d'écrans, les transflectifs dont le fond d'écran renvoie une partie de la lumière incidente, et les transmissifs disposant d'un rétro éclairage. Les premiers donnent une image plus brillante et plus lisible dans un environnement lumineux. Cette technologie est en évolution permanente. A l'avenir, ces ordinateurs seront probablement équipés d'écrans OLED.

Microsoft Surface et Asus T100

Parmi les tablettes PC de dernière génération, citons le "Surface RT" de Microsoft qui fut présenté en 2012 et amélioré en 2013 avec les modèles "Surface Pro" et "Surface Pro 2". A ne pas confondre avec le "Surface computer" qui a la taille d'une table (50") ou d'un écran mural.

Ces tablette PC sont équipées d'un écran LCD IPS "ClearType Full HD" 1080p de 10.6" au format 16:9 (27.4 x 17.3 cm) offrant un contraste de 1000:1, de 2 GB à 8 GB RAM, d'un disque dur SSD de 64 à 512 GB, d'un clavier détachable tactile (Touch) ou à touches dures (Type Cover 2), d'une connexion Wi-Fi (mais pas 3G/4G), des ports habituels (Bluetooth, microSD, micro, casque, miniDisplay, USB 2.0 sur RT, USB 3.0 sur Pro 2) et des fonctions qu'on retrouve sur les tablettes (APN 720p, hauts-parleurs, accéléromètre, etc.).

En proposant ces tablettes PC, Microsoft veut clairement concurrencer les fabricants de tablettes et d'ordinateurs portables et autres ultrabooks.

A voir : Revue du Surface Pro 2, 01NetTV, 2013

Revue du Surface Pro 2, Clubic, 2013

Revue du Surface RT, Journal du Geek, 2012

Revue de l'ASUS Transformer T100 par 01NetTV et MiniMachine, 2013

A gauche, le tablette PC "Surface Pro" de Microsoft de 10.6" 1080p en format 16:9 et équipé d'un processeur Intel Core i5 de 1.6 GHz et d'un clavier "Touch" tactile. Au centre, le "Surface Pro 2" équipé d'un processeur de 2.3 GHz et d'un clavier Type Cover 2. A droite, l'Asus Transformer T100 équipé d'un écran de 10.1" en format 16:9 et d'un processeur Atom cadencé à 1.6 GHz.

La différence essentielle entre ces tablettes PC est que le fait que le "Surface RT" utilise un processeur ARM et ne peut donc pas utiliser les applications Windows classiques développée pour le code Intel. Il est limité, et le terme est approprié, aux applications disponibles sur Windows Store. S'il existe 150000 apps, il en existe peu pour les réseaux sociaux (Facebook et Twitter sont disponibles mais ils ne sont pas complets) et YouTube n'est disponible que sous forme de visionneuse "Hyper for YouTube". Autrement dit, le Surface RT s'adresse aux ados ou à des débutants.

En revanche, les "Surface Pro" et le "Surface Pro 2", sont équipés d'un processeur Intel Core i5 de 1.6 GHz ou 2.3 GHz et de Windows 8.1. Ils sont capables de faire tourner la plupart des applications du marché, y compris des logiciels graphiques (Pinacle, Photoshop, etc) en qualité HD et peuvent également afficher le bureau classique de Windows 7 constitué d'icônes.

Lors de son lancement, le prix du Surface RT était d'environ 430 €. Selon la configuration choisie, le prix du Surface Pro 2 oscille entre 879 € et 1200 € équipé de tous ses accessoires, ce qui en fait un produit aussi cher qu'un iPad équipé d'accessoires et plus cher que certains ordinateurs de bureau.

Le concurrent du Surface est le tablette PC Asus Transformer T100 sorti fin 2013. Il est proposé à 399 € avec un écran IPS de 10.1", un processeur Intel Atom de 1.33 GHz, 2 GB RAM, 64 GB de disque eMMC, un clavier à touches dures, un port USB 3.0, microSD, une caméra frontale 720p, deux haut-parleurs, un micro, un mini jack pour le casque, un port micro USB, Wi-Fi N, Bluetooth 4.0 et HDMI. En option, Asus propose un disque dur SSD de 500 GB à 100 € ainsi qu'une souris.

Notons que certains PC portables d'Acer, Asus, Dell, HP ou Toshiba parmi d'autres disposent d'un écran tactile fixé sur une rotule orientable à 180°, ce qui permet de le replier à plat et à l'envers sur le clavier. Très ergonomiques mais au moins deux fois plus épais que les tablettes PC, ils sont généralement plus performants que les tablettes PC; ils disposent de plus de mémoire, d'un disque dur plus important, d'un processeur plus rapide, etc. 

Tablette et autre iPad

Alors que Roger Fidler avait déjà inventé la tablette en 1994, il faudra attendre 12 ans pour qu'Apple présente son fameux iPad en 2010. Précisons que devons son interface utilisateur (et celui de l'iPod) au designer et critique Bret Victor. Victor est connu pour sa vision futuriste de la technologie et a participé aux décors de nombreux films dont "Minority Report".

L'iPad fut proposé à un prix oscillant entre 499 € et 799 € plus accessoires soit plus de 1200 € full options. Malgré ce prix relativement élevé, ce fut un succès commercial immédiat. Du jour au lendemain l'action d'Apple (AAPL) a progressé de 15% ! Ses ventes ont explosées jusqu'en octobre 2012 où elle représentait à elle seule plus de 94% des parts de marché.

A voir : La tablette de Roger Fidler (1994)

Sur le blog : L'iPad 3 (2012) - L'iPad (2010)

A gauche, l'iPad d'Apple. Au centre, son mode d'emploi sous forme de carte de référence à imprimer (à 26% de sa taille en A4 paysage). A droite, un PC portable Asus disposant d'un écran tactile rotatif.

Mais Apple subit rapidement la concurrence asiatique, au point qu'en 2014 l'iPad ne représentait plus que 28% des parts de marché. Ceci dit, grâce à Apple le marché des tablettes a explosé. Mi 2013, il s'était vendu plus de 50 millions de tablettes dans le monde.

Avec son écran LED 4:3 de 9.7" et un poids de 680 g, dans sa dernière version l'iPad 3 reste de facto la référence des tablettes. Mais bien qu'il ait le look d'un tablette PC, par défaut il est vendu sans applications bureautiques (mis à part la messagerie, une visionneuse et quelques outils dont un système de reconnaissance vocale), ni accessoires (sans clavier, pas de souris, pas de port SD, pas d'étui, etc). Comme les tablettes concurrentes, l'iPad reste avant tout un outil de communication et multimédia.

Mais il peut s'adapter, d'autant plus que la logithèque Apple store rassemble aujourd'hui plus de 900000 applications dont 140000 pour l'iPad dont une majorité sont gratuites (contre 150000 pour le Windows Store, dont 10000 pour Windows RT en 2014), auxquelles s'ajoutent les 26 millions de titres disponibles sur iTunes Store (également payants). Ceci dit, la version actuelle de l'iPad reste un produit plutôt cher comparé à ses concurrents.

Comparatifs à consulter : Les tablettes - Les smartphones, Les Numériques, 2014

18 excellent apps to install on your new windows tablet, CITEWorld, 2014

Evolution des parts de marché des tablettes. Document Strategy Analytics

Equipé d'un tablette PC ou d'une tablette de dernière génération, d'une connexion Wi-Fi, 3G/4G et d'une webcam, vous avez tout ce qu'il faut pour travailler comme chez vous mais pratiquement jamais de chez vous ! Explications.

Le web mobile

Le web mobile à tendance à se généraliser avec l'installation de plus en plus fréquente de connexion Wi-Fi dans les voitures. Grâce à cette connexion Internet mobile, tout automobiliste pour connaître l'état des routes ou surfer sur le web en tant que passager, un comportement qui risque à l'avenir de devenir une seconde nature.

Prenons un exemple simple. Imaginez que vous êtes en voiture loin de chez vous et avez oublié de prévenir votre partenaire, votre hôte ou votre patron sur un point précis.

Si vous avez l'habitude de transporter votre tablette ou tablette PC, vous pouvez l'utiliser à la place de votre smartphone pour le prévenir, le prix de la communication étant généralement compris dans votre forfait Internet.

Vous vous arrêtez près d'une borne Wi-Fi et établissez une connexion vidéo via un logiciel de communication genre Skype. Vous lui communiquez l'information et ensuite vous avez même le temps de consulter vos e-mails et de lire les titres de l'actualité sur le site d'un webzine comme si vous étiez à la maison.

Certains reprocheront à cette solution que les smartphones permettent déjà aux passagers de se connecter à Internet. Toutefois, ces systèmes sont éauipés d'un écran assez petit, sont parfois limités à la gestion des e-mails (Blackberry) ou présentent une connection relativement lente à Internet (Edge à défaut de 3G ou 4G), autant de facteurs qui ne permettent pas vraiment d'utiliser ces mobiles comme outil de visioconférence ou pour naviguer d'un site web à l'autre.

Pour ce faire, l'idéal est d'utiliser une tablette de 7" ou 10" et de disposer d'une connexion à haut débit, Wi-Fi, 4G ou WiMAX. Malheureusement, les solutions 4G ne sont pratiquement pas disponibles sur les tablettes et tablettes PC tandis que les liaisons WiMAX se comptent encore sur les doigts d'une main en raison de notre retard technologique.

La plupart des solutions mobiles Wi-Fi présentent un débit atteignant 11 Mbps. Cela vous permet de surfer sur Internet, de consulter les notifications de vos réseaux sociaux tout en communiquant avec vos amis et collègues par vidéo.

De cette manière, même loin de chez vous ou de votre travail, vous pouvez garder un contact avec vos proches, échanger des documents et même vous excuser auprès du patron mieux que par un courrier électronique impersonnel !

Les désavantages du Wi-Fi

Il y a d'abord la question de sa disponibilité. En effet, utiliser une tablette ou un tablette PC signifie disposer d'un accès à Internet là où on se trouve, que ce soit en ville ou à la campagne. En théorie ca fonctionne très bien et les commerciaux sont les premiers à vous le dire quand ils avouent "couvrir 95% du territoire". Et si vous êtes dans les 5% non couverts que devient votre bel abonnement ? Il est tout simplement inutilisable ! 

Les commerciaux oublient souvent de préciser qu'ils vous font la démo à quelques mètres d'une borne Wi-Fi, que si vous êtes en balade, de temps à autre vous risquez d'être hors d'atteinte du réseau ou pire, que votre opérateur n'a pas signé de contrat avec le leader du marché et ne peut donc pas profiter de ces installations !

Concrètement, mi 2013, il y aura 19 millions de bornes (hotspot) Wi-Fi en France (SFR), Belgique (Belgacom), Angleterre (BT) et Allemagne (Deustche Telekom). Mais tout le monde n'y aura pas accès. En effet, les internautes abonnés chez des opérateurs concurrents (par ex. Voo en Belgique, Bouygues en France, etc) et qui n'ont pas signé de contract avec ces majors n'auront pas la possibilité de se connecter à ces bornes Wi-Fi, ce qui pénalise déjà des millions d'utilisateurs passés à la concurrence pour une raison purement financière et soi-disant profiter d'un "meilleur service" mais surtout de moins bonne qualité, autant savoir !

Le second désavantage du Wi-Fi est la légère détérioration de l'image en raison de l'étroite bande passante accordée à ce genre de service. Rien de tel en effet que la connexion fixe depuis votre domicile ou le bureau.

La qualité de la connexion Internet sans fil dépend également de la fiabilité du réseau - comme c'est le cas pour le GSM 3G.

A mesure que vous vous déplacez, il peut arriver que vous tombiez en dehors de la couverture des antennes relais et de la zone de captation. Si la barre du signal Wi-Fi, 3G ou WiMAX diminue dans l'icône de statut affichée sur la tablette, attendez-vous à voir le débit des transferts diminuer voire, au pire, à une coupure de ligne.

La puissance du signal peut également varier en fontion de votre vitesse relative par rapport aux relais cellulaires. C'est plus marqué dans les trains ou les avions. Au pire, vous irez plus vite à pied, mais c'est exceptionnel !

Enfin, comme pour les GSM, les opérateurs prétendent couvrir tout le pays et atteindre des millions de consommateurs. Or on constate que dans les zones rurales ou au fond des vallées étroites, quelquefois les liaisons Wi-Fi ou 3G/4G sont ralenties voire carrément impossible car le système ne reçoit aucun signal.

Quand vous vous renseignez auprès de l'opérateur, et c'est notamment le cas dans certains villages en Belgique ou au Luxembourg, on vous répond qu'ils connaissent le problème depuis quelques années et qu'ils projètent d'installer une nouvelle antenne relais. En attendant, les années passent et rien ne change, mais vous payez toujours votre abonnement Internet au prix fort pour un service perfectible. La situation est identique dans bien des régions rurales de France et d'outremer.

Le WiMAX et le LTE

Le débit étant un paramètre important du confort des utilisateurs lors des liaisons Internet, les mobiles WiMAX sont la solution d'avenir, une technologie encore timide mais supportée par l'Union Internationale des Télécommunications (UIT) et encouragée par Intel, Motorola, Samsung et Toshiba notamment, ainsi que nous l'expliquions dans cet article présenté sur mon blog, c'est-à-dire les plus grands fabricants de semi-conducteurs ou de produits informatiques, c'est dire l'importance qu'ils accordent à ce marché.

Le WiMAX (IEEE 802.16) permet d'atteindre des vitesses 3 à 5 fois supérieures à celles des meilleures liaisons Wi-Fi ou des services câblés de type DSL. On parle de débits de 2 à 3 Mbps avec des pics de 10 Mbps.

A ces vitesses, vous pouvez consulter sur votre tablette des documents en streaming vidéo (flux continu) depuis YouTube, écouter votre chaîne de radio favorite en streaming audio ou écouter de la musique en streaming à travers des services comme Rhapsody.

Les fabricants supportant le WiMAX veulent non seulement étendre cette technologie aux ordinateurs portables et aux smartphones, mais également aux GPS.

Non seulement le haut débit permet aux conducteurs d'être informés plus rapidement sur l'état du trafic routier pour une précision accrue, mais il permet également d'obtenir en temps réel les images du réseau de webcams installées sur nos autoroutes, à la recherche d'un éventuel itinéraire de délestage. De telles solutions sont déjà testées aux Etats-Unis, notamment à Washington et à Chicago. Demain, cette technologie sera chez nous.

Mais pour le moment le réseau WiMAX est clairsemé en Europe, même dans nos capitales comme l'explique ce site web consacré à WiMAX et discutant de la couverture de Bruxelles.

Ceci dit, les ingénieurs pensent déjà à d'autre solutions. AT&T, l'une des sociétés qui compte le plus de prix Nobel au mètre carré, envisage d'exploiter la technologie dite "LTE" ou Long-Term Evolution, qui permet en théorie d'atteindre des débits 10 fois supérieurs au WiMAX !

Si le haut débit est sans conteste la solution d'avenir pour la technologie sans fil, il reste une incertitude sur la disponibilité de ce type de service Internet dans nos villes et le long des autoroutes. Nous sommes encore loin de la couverture offerte par les GSM, même sur les highways américaines qui drainent des dizaines de millions de personnes chaque jour.

Actuellement le débit est parfois si lent qu'au cours d'une liaison vidéo mobile par messagerie instantanée, l'image prend l'aspect d'une coulure de peinture, même avec la meilleure webcam équipée d'un système intelligent de poursuite et d'un système anti-vibration. Et n'essayez même pas de l'utiliser sur le siège arrière d'un SUV en train de passer dans un sentier chaotique, où même les connexions Internet mobile les plus rapides ne tiennent pas la route.

Allez, soyons sympa. Laissons le temps à nos opérateurs de s'adapter au marché en commençant par leur donner un peu de temps pour remplacer leurs vieux centraux téléphoniques et autres PABX par des systèmes digitaux et leurs lignes de cuivre par de la fibre optique. Mais à trop attendre, ne prenons tout de même pas trop de retard ou les entreprises iront voir ailleurs.

Le Web 3.0

Au coeur de la Silicon Valley, les informaticiens imaginent un nouveau type d'Internet, bien plus puissant que celui que nous utilisons tous et qui nous permet d'imprimer des lettres, de télécharger des fichiers ou de communiquer à distance entre amis.

Facebook, YouTube et les autres réseaux et blogs sociaux font partie de ce qu'on appelle le "Web 2.0" qui a pénétré les foyers depuis quelques années. Mais si certains ont déjà du mal à comprendre son utilité, pour ceux qui imaginent déjà l'avenir, cela ne représente qu'un pixel de l'image globale qu'ils ont du futur d'Internet, en 2020 sinon au-delà.

Homo informaticus communicans

Du Web 1.0 au Web 2.0

Le concept d'Internet suit actuellement un cycle de 10 ans environ, au terme duquel il évolue radicalement. Le Web 1.0 représentait la première génération durant laquelle s'est développé la plate-forme de base d'Internet, classique, caractérisée par sa capacité de mettre à disposition des utilisateurs d'énormes quantité d'information en ligne.

A la Belle Epoque d'Internet, grosso-modo entre 1995 et 2000, le web était statique et nous utilisions des programmes et des bases de données propriétaires disparates, sans possibilité d'établir de relation entre les données, les informations étaient séparées comme c'est encore le cas dans beaucoup d'administrations publiques d'un autre âge.

Actuellement nous approchons de la fin du second cycle - le Web 2.0 - qui est la version intelligente d'Internet, celle de l'interface utilisateur ergonomique. Il permet de relier les applications bureautiques ou même scientifiques à des services en ligne, bref de connecter des utilisateurs et des périphériques entre eux.

Cette technologie est par exemple utilisée par l'univers virtuel de Second Life et des services en ligne comme Google Maps ou les systèmes GPS de dernière génération qui proposent aux internautes des cartes géographiques reliées à des services utilitaires (base de POI, annuaire, etc). On peut également citer Twitter ou Picasa. Avec Flickr par exemple, vous pouvez trouver des images qu’une recherche classique par mot-clé ne pourrait jamais trouver. Mais tout cela sera bientôt démodé avec le Web 3.0 qui pointe à l'horizon.

Selon les experts, dans un peu plus d'une décennie, vers 2020, la technologie associée à Internet sera capable de relier tous les aspects de notre vie numérique, que ce soit le site web, l'e-mail ou un fichier de notre ordinateur à des milliers d'autres concepts ou périphériques exploitant cette même technologie.

Par exemple, quand vous taperez un courrier électronique, le système pourra anticiper le titre du message et vous suggérer des sites Internet, des livres ou des documents (des photos et des vidéos) que vous avez sauvegardés et qui pourraient vous être utiles.

Cette relation dynamique sera possible grâce à l'intelligence inhérente à l'architecture fondamentale d'Internet. En d'autres termes, le web et la sémantique des tâches vont devenir intelligents et même futés.

C'est en tout cas l'idée de la technologie Web 3.0 qui s'est développée à partir de 2006 et qui vise à transformer Internet en une gigantesque base de données dont le contenu sera accessible via des outils diffférents des navigateurs actuels et dotés d'intelligence artificielle. Comment les concepteurs imaginent ces solutions ?

Le Web 3.0 ou le web sémantique

Nova Spivack est le fondateur de la société Radar Networks. C'est un gourou travaillant dans la Silicon Valley, spécialisé dans le développement de ce qu'on appelle le Web 3.0 ou "web sémantique" (parfois également appelé "Web géospatial" ou "Web 3D").

Selon Spivack, le Web 3.0 se réfère à une tentative des concepteurs de réviser radicalement la plate-forme technologique de base d'Internet de manière à ce que le système puisse identifier et tenir compte du nombre infini d'informations éparses qui résident alentour et établir des relations entre elles.

Si le Web 2.0 était tout sauf un système intelligent de collecte d'information, un bon nombre d'internautes ont apprécié le principe de "Page Rank" (Technorati, Digg.com, etc) imaginé par Google pour attribuer une valeur aux informations que l'on trouve sur Internet en fonction de la pertinence ou de leur intérêt.

La quantité d'information disponible sur Internet est devenue tellement colossale - ce sont les fameuses "Big data" chères aux services d'espionnage notamment - que le Web 3.0 envisage pas moins que de donner un cerveau à Internet.

Dans le Web 3.0, les concepteurs insistent non plus sur l'application qui tourne à l'avant-plan mais sur ce qui se passe en arrière-plan du système, sur la puissance d'indexation des moteurs de recherche comme Google. 

Un exemple de technologie Web 3.0 est la possibilité d'utiliser un langage naturel pour interroger Internet, ce qui permet aux moteurs de recherches de répondre à des questions du genre "Quels sont les vêtements d'hiver fabriqués en microfibres et valant moins de 100 € ?".

Actuellement, répondre à cette question peut demander pas mal de recherches, de consulter les sites des fabricants, de fouiller dans les catalogues en ligne, les comparatifs et d'essayer de trouver des prix actualisés.

Heureusement, dans certains cas, les sites qui apparaissent dans le résultat ne se réfèrent pas aux termes utilisés dans la question comme c'est encore généralement le cas, mais à son contexte.

La recherche cognitive

Avec le Web 3.0, le moteur de recherche permet de classer toutes les pages et toutes les phrases afin de trouver par déduction cognitive le résultat qu'attend l'utilisateur. 

En effet, aujourd'hui les algorithmes cognitifs utilisés par Google et ses concurrents sont capables de déterminer que la société Polar par exemple fabrique des vêtements en microfibres, que la microfibre est un textile et que l'euro est une devise européenne.

Barney Pell, directeur de Powerset, une société qui développe une technologie basée sur le langage naturel, confirme cette évolution : "notre moteur consulte chaque page, phrase par phrase et renvoie les résultats en se basant sur ses connaissances générales du langage et sur la signification générale de concepts spécifiques et leurs relations mutuelles". Sa société, basée au PARC (Palo Alto Research Centre), en Californie, est parfois considérée comme la "tueuse de Google" (Google-killer) dans la mesure où sa solution qui n'est pas encore très connue, deviendra populaire (la société a commencé à faire parler d'elle depuis 2007).

Le Web 3.0 ne touche pas seulement le contenu des documents textes mais tous les médias, y compris les images et les vidéos.

Ouverture des plates-formes et des périphériques

Toutefois, ce n'est pas simplement le moteur de recherche qui sera révisé dans l'Internet du futur. Un des thèmes récurrents qui revient au cours des conférences sur le Web 2 .0 et 3.0 est le concept de "plate-forme ouverte", l'équivalent des systèmes d'exploitation open-source, l'idée qu'un site Internet ou un périphérique comme un smartphone, un APN ou une imprimante doit être capable de s'adapter à tous les paramètres ou à toutes les applications qu'utilise le client.

Le système doit par exemple considérer une tablette, un smartphone ou une clé USB comme un dossier dans lequel son propriétaire peut extraire ou placer des objets ou des applications (un fichier, un service de messagerie, des photos, des jeux créés par l'utilisateur, etc) sans que le constructeur ne soit obligé d'approuver une telle action (à travers le paiment d'une licence).

Cela sous-entend que ces périphériques doivent communiquer entre eux et se synchroniser sans intervention humaine. Ils doivent donc être identifiés, et la manière la plus simple est de leur attribuer une adresse IP ou de leur associer une puce RFID pour qu'ils communiquent à travers les réseaux. Ces concepts ne sont plus une vue de l'esprit depuis quelques années.

Certaines parmi les plus grandes société informatiques (Apple, Myspace et Google) ont publiquement annoncé qu'elles souhaitaient développer des plates-formes ouvertes, Internet devenant le lieu où différents services se mélangeraient et se correspondraient.

Ce futur devient progressivement une réalité. Pour preuve, selon les analystes de Gartner, en 2013 on dénombrait 9 milliards d'appareils connectés dont 6 milliards de mobiles. Il y aura plus de 10 milliards de mobiles connectés en 2020.

En parallèle, les mondes virtuels deviendront plus mûrs, passant d'une connotation proche des jeux informatiques à celle des environnements d'immersion, c'est-à dire de solutions complexes, multi-dimensionnelles faisant intervenir à la limite tous les acteurs de la société, y compris les entreprises publiques.

Pour en savoir plus, consultez sur le site web du MIT l'interview de Sandro Hawke, systems architect du World Wide Web Consortium, concernant les nouveaux standards qui conduiront au web sémantique.

Les connaissances exposées aux machines

Demain, ce type de technologie permettra à chacun depuis un ordinateur ou des lunettes à réalité augmentée d'explorer tout un univers virtuel que l'on commence à peine à entrevoir.

A travers toute sa complexité et sa puissance potentielle, le Web 3.0 témoigne que les connaissances humaines sont de plus en plus exposées et gérées par les machines et qu'un jour elles seront contenues dans les machines.

Quand on voit les prouesses du "Surface computer" de Microsoft alliées à la dextérité et l'intelligence des androïdes de Honda parmi d'autres, il ne fait aucun doute que si un jour on unit les deux entités, l'homme aura du mal à garder sa place de décideur dans ce monde artificiel.

Mais ce n'est pas une raison pour tout arrêter et en revenir au crayon et au papier. L'informatique de demain peut nous rendre d'innombrables services et même nous enrichir sur le plan intellectuel si nous fixons des gardes-fous et donnons un sens éthique à toute cette technologie avant qu'elle nous dépasse.

Retour aux Technologies


Back to:

HOME

Copyright & FAQ