Kaptain

Google prétend avoir atteint la «suprématie quantique»

Recommended Posts

Le ‎24‎/‎10‎/‎2019 à 11:52, Cédric Perrouriefh a dit :

Combien de temps avant qu'il passe dans la langue française, tant nous pouvons être des passoires sans esprit critique ! >:()

 

C'est déjà fait.

J'ai entendu des collègues dire qu'ils ont "googlé" quelque chose.

Edited by Kirth
  • Like 1
  • Sad 1

Share this post


Link to post
Share on other sites
Advertising
By registering on Astrosurf,
this type of ad will no longer be displayed.
Planetary Astronomy
Observing, imaging and studying the planets
A comprehensive book about observing, imaging, and studying planets. It has been written by seven authors, all being skillful amateur observers in their respective domains.
More information on www.planetary-astronomy.com

Le débat est biaisé par le fait que les calculateurs quantiques opèrent sur des problèmes très spécifiques. Ce n'est donc pas demain la veille que l'on va généraliser les ordinateurs quantiques dans leurs applications à l'usage que l'on fait actuellement des ordinateurs classiques.

 

A cela s'ajoute aussi et surtout que l'on travaille avec seulement 54 (53) qubits pour le moment !

Or, pour que cela commence à devenir intéressant d'un point de vue pratique (je ne parle pas de temps), par exemple pour des problèmes de factorisation, il faudrait au minimum un millier de qubits.

Résoudre un problème en un temps inaccessible à un ordinateur classique c'est bien, mais pouvoir le faire sur un problème qui présente un intérêt, c'est mieux. De fait, à ce jeu là, certains estiment qu'un ordinateur quantique digne de ce nom devrait au moins atteindre le million de qubits. Ce qui est actuellement loin, très loin, très très loin, de l'état de l'art ! Aux dires de certains spécialistes, on ne sait même pas si c'est réalisable !

 

Dans un premier temps, les applications impliquant entre une centaine et un millier de qubits sera très certainement réservée à des problèmes ciblés.

 

  • Haha 1

Share this post


Link to post
Share on other sites
Il y a 1 heure, Kirth a dit :

J'ai entendu des collègues dire qu'ils ont "googlé" quelque chose.

Bah ;) tant qu'ils n'ont pas contracté la goglu ;)

  • Haha 3

Share this post


Link to post
Share on other sites
Il y a 1 heure, George Black a dit :

Aux dires de certains spécialistes, on ne sait même pas si c'est réalisable !

Ah ah ces ordinateurs quantiques :) ça fait bien 30 ans que j'en entends parler ;)

Mais bon, suffit d'y croire ;)

Share this post


Link to post
Share on other sites
il y a 21 minutes, ALAING a dit :

Bah ;) tant qu'ils n'ont pas contracté la goglu ;)

 

Ça  colle ;)

  • Haha 3

Share this post


Link to post
Share on other sites

A propos de la consommation du bazar... pour rappel, glâné sur le site http://histoire.info.online.fr/ordinateurs.html

 

« 1946 : Création de l'ENIAC (Electronic Numerical Integrator and Computer) par P. Eckert et J. Mauchly. La programmation de ce calculateur s'effectue en recablant entre eux, ses différents éléments. Composé de 19000 tubes, il pèse 30 tonnes, occupe une surface de 72 m2 et consomme 140 kilowatts. Horloge : 100 KHz. Vitesse : environ 330 multiplications par seconde. »

 

70 ans plus tard, monsieur et madame tout le monde possède un mobile, machine 10´000x plus rapide et consommant 1´000x moins... pas si mal non ?

Par contre pour quel usage... xD ça fait presque pitié restrospectivement.

On en reparle d’ici là ;)

Share this post


Link to post
Share on other sites

Une nouvelle annonce spectaculaire qui vient balayer celle de Google, à l'origine de ce fil.

Les résultats qui sont publiés dans Nature par une équipe originaire de.... (devinez quel pays !)

 

https://www.usinenouvelle.com/editorial/comment-des-chercheurs-chinois-ont-atteint-l-avantage-quantique.N1037504

 

Google n’a plus le monopole de l’avantage quantique. Le 3 décembre, des chercheurs de l’université technologique de Hefei (Chine) ont annoncé avoir réalisé un calcul presque impossible à effectuer sur un supercalculateur conventionnel. D’après une publication dans la revue Nature, leur calculateur quantique, nommé Jiuzhang, aurait réalisé en 200 secondes un calcul qui aurait occupé l'un des supercalculateurs les plus puissants du monde pendant… 2,5 milliards d’années.

Contrairement à Sycamore – le calculateur quantique de Google, qui fonctionne avec des qubits supraconducteurs – Jiuzhang, lui, utilise des photons en guise de bits. Réputée moins mature que celle de l’américain, cette approche dispose cependant d’un avantage de taille : le système ne nécessite pas d’être refroidi à l’extrême pour fonctionner.

 

Réalisation incontestable

C’est donc à température ambiante que la plateforme s’est attelée à un problème d’échantillonnage de bosons, qui vise à simuler le comportement de ces particules élémentaires, famille dont font partie les photons. Elles empruntent un chemin totalement aléatoire lorsqu’elles heurtent un obstacle et peuvent aussi s’associer temporairement pour suivre une même trajectoire.

Ce caractère imprévisible rend la simulation ardue : à mesure que le nombre de particules croît, la complexité du calcul augmente de manière exponentielle. Théorisé en 2011 au MIT, ce type de problème est quasiment impossible à résoudre sans avoir recours aux technologies quantiques. De quoi assurer aux chercheurs de voir leur réalisation incontestée, contrairement à Google, dont la suprématie quantique reste discutée.

L'américain avait expliqué avoir réalisé en trois minutes et vingt secondes un calcul qui aurait occupé le supercalculateur Summit, deuxième plus puissant du monde, pendant 10 000 ans. Cette affirmation avait été rapidement contestée par des chercheurs d'IBM, expliquant être parvenus à réaliser le même calcul, de manière différente, en seulement deux jours et demi sur un supercalculateur conventionnel. 

 

76 qubits au maximum

Pour réaliser leur expérience, les scientifiques chinois ont mis au point un dispositif optique hautement complexe : une table de trois mètres carrés, équipée de 300 séparateurs de faisceaux et 75 miroirs. Alimentée par des générateurs de photons (qui, eux, doivent être refroidis à environ -270 °C), le système observe la trajectoire et l’état quantique des particules pour prédire leur comportement. Il a été capable de mesurer ponctuellement l’état de 76 photons – 43 en moyenne – soit autant de qubits.

La plateforme présente cependant un défaut : conçue pour résoudre ce problème mathématique précis, elle ne peut être paramétrée numériquement pour effectuer différents calculs. Les chercheurs travaillent donc à une nouvelle version de leur machine, programmable, à l'image du calculateur à photons développé par la société canadienne Xanadu. Qui pourrait par exemple aider à comprendre l’interaction des protéines entre elles.

 

Autre lien :

https://www.futura-sciences.com/tech/actualites/ordinateur-quantique-circuit-quantique-execute-calcul-100000-milliards-fois-plus-vite-quun-superordinateur-84598/

  • Like 3
  • Thanks 4

Share this post


Link to post
Share on other sites

Oui, c'est la foire aux annonces toutes plus supelatives l'une que l'autre dans ce domaine. 

On se croirait revenu dans les années 80 avec l' IA... Les générations passent, le bullshit marketing reste.

  • Like 4

Share this post


Link to post
Share on other sites

Cet ordinateur quantique ne nous aidera pas à résoudre nos petits problèmes dans nos chéquiers!

 

Tout de même cet ordinateur aura la réponse pourquoi nous sommes conscient?

 

La philosophie sera alors peut être obsolète?

Share this post


Link to post
Share on other sites

À propos d'ordinateurs surpuissants (voire suprémacistes),  je vais vous raconter une histoire...

 

Là, aujourd'hui, je vous écrit depuis ordinateur équipé d'un Celeron Duocore, une technologie qui date de plus de dix ans. C'est une machine que j'avais achetée d'occasion à 120 € parce que je ne voulais pas dépenser plus − tant pis si ce pas le dernier cri. Bref, c'est une machine minable par rapport à ce qui existe aujourd'hui.

 

Au début des années 90 et durant mes études de maths appliquées, j'ai fait un stage à l'I.N.R.I.A. En gros et sans détailler, un chercheur (qui dirigeait mon stage) avait réalisé des calculs numériques en 2D pour résoudre un certain problème compliqué, et voulait passer à la 3D. Solution : faire tourner le programme 3D sur le Cray II que l'I.N.R.I.A. louait. Mon rôle était d'adapter le programme Fortran qui existait déjà (il fallait le « vectoriser ») et de le compiler, puis le chercheur l'envoyait sur le Cray pour le faire tourner (il avait droit à un créneau d'une heure chaque semaine, je crois). Notez que la compilation ne se faisait pas sur le Cray, ce serait du gaspillage. Elle se faisait sur les machines du labo, qui tournaient sous Unix comme tout le monde (le Cray aussi). Tout ça pour expliquer que, au tout début, on m'avait fourni une brochure expliquant comment compiler pour le Cray (les options de compilation, d'optimisation, tout ça...)

 

J'ai commencé à lire la brochure dans le train. C'était inouï.

 

Qu'on se remette dans le contexte. Durant les années 80, les PC étaient répandus dans les entreprises, pas chez les particuliers, car ils coûtaient très chers. À la maison, on avait des ordinateurs « familiaux », comme l'Amiga ou l'Amstrad CPC. Amstrad a été le premier à commercialiser un PC à moins de 10000 F (de peu, hein), le PC-1512. Au début des 90s, il commençait à exister quelques PC à moins de 10000 F : processeur 286 (les 386 étaient plus chers, les 486 hors de prix : il existait à l'époque des PC à plus de 50000 F), 512 Ko de mémoire vive, puis très vite 1 Mo voire 2 Mo, et disque dur en option. Les disques durs atteignaient 10 Mo, 20 Mo, et plus pour les modèles à 50000 F bien sûr. On savait qu'un jour viendrait où il y aurait des disques durs de 100 Mo.

 

Dans la brochure, ils indiquaient : 3 Go de mémoire. Trois quoi ? Giga ? Comme les gigowatts de "Retour vers le futur" ? Il faut brancher le Cray sur un paratonnerre pour qu'il marche ?

 

3000 Mo de mémoire ! Alors que les PC les plus onéreux en offrent 40 au maximum...

 

En fait il y avait un truc qui clochait. Alors j'ai relu. C'était pas la mémoire disque : c'était la mémoire vive ! 3 Go de mémoire vive ! Mais c'est la science-fiction !

 

Le Cray II était un monstre. C'est le premier ordinateur au monde à avoir atteint le gigaflops : un milliards d'opérations en virgule flottante par seconde ! Les chercheurs du labo où je faisais mon stage se seraient damnés pour en avoir un sur leur bureau.

 

Le PC minable avec lequel je vous écris a 8 Go de mémoire vive et fait du 10 gigaflops. Avec 120 €, j'ai mieux qu'un Cray II sur mon bureau. Mon PC, je l'aime d'amour.

 

La moralité ? Vous me voyez sûrement venir : a-t-on besoin de plus de puissance alors qu'on se promène avec des Cray II dans la poche ? Sera-ce pour trouver plus rapidement un vaccin ? Pour les calculs de l'engin spatial qui nous mènera sur Mars ? Lisons l'article "FLOPS" de Wikipédia : « le réseau de minage permettant la génération de la cryptomonnaie Bitcoin totalise une puissance d'environ 64 exaFLOPS. Il s'agit du réseau le plus puissant au monde ». Voilà à quoi ça va servir. Si Google s'y implique, nul doute que ce sera pour le traitement des énormes données qu'ils collectent afin de nous asservir par la publicité.

 

Edited by Bruno-
  • Like 4
  • Love 3
  • Thanks 1

Share this post


Link to post
Share on other sites

Bonjour Bruno-

Bonjour à tous !!

 

Il y a 13 heures, Bruno- a dit :

Au début des 90s, il commençait à exister quelques PC à moins de 10000 F : processeur 286 (les 386 étaient plus chers, les 486 hors de prix : il existait à l'époque des PC à plus de 50000 F), 512 Ko de mémoire vive, puis très vite 1 Mo voire 2 Mo, et disque dur en option. Les disques durs atteignaient 10 Mo, 20 Mo, et plus pour les modèles à 50000 F bien sûr. On savait qu'un jour viendrait où il y aurait des disques durs de 100 Mo

 

En effet !! Je me souviens mon 1er stage d'école au milieu des années 80 : IBM PC avec un processeur Intel 8086, 2 lecteurs de disquettes de 360 Ko, 512 Ko de RAM, rapidement étendu à 640 Ko, le max que savait gérer MS-DOS. Dans tout programme, la chasse à l'octet était ouverte !!

 

Quelques années plus tard, j'étais en admiration devant un IBM PC avec un Intel 80386 dopé avec un 80387, 640 Ko pour MS-DOS, et un DD de 30 Mo...

Je ne savais pas avec quoi le remplir !! Le prix ? Si ma mémoire est bonne, autour de 50 000 francs l'unité centrale avec le clavier. J'étais le 1er de l'entreprise à avoir une telle configuration (ni le PDG ni le DSI n'en avaient un pareil), ce qui me permis de comprendre Windows 386, que l'on recompilait pendant 30 minutes dès que l'on changeait l'écran (N&B vers couleur par ex), que l'on ajoutait une barrette de mémoire RAM, que l'on changeait de souris ou d'imprimante...

 

Je vous parle d'un temps que les moins de 30 ans ne peuvent pas connaître :)) !!

 

Éric

Edited by edubois3
  • Like 1
  • Haha 1

Share this post


Link to post
Share on other sites
Il y a 13 heures, Bruno- a dit :

Vous me voyez sûrement venir : a-t-on besoin de plus de puissance alors qu'on se promène avec des Cray II dans la poche ?

 

Ça va bien au-delà de simples calculs en gigaflops, une véritable révolution se prépare permettant des calculs hyper rapides impensables même avec des petaflops et autres. On pourrait calculer le repliement des protéines de surface du coronavirus très rapidement, alors qu'on galère en ce moment malgré tous les efforts. Vraiment un autre monde, qui n'a rien à voir avec l'informatique habituelle, si puissante soit-elle. Encore faut-il parvenir à le fabriquer et le faire tourner d'une façon fiable...

  • Like 1

Share this post


Link to post
Share on other sites
il y a 4 minutes, edubois3 a dit :

IBM PC avec un processeur Intel 8086, 2 lecteurs de disquettes de 360 Ko, 512 Ko de RAM

Celui là c'était déjà la génération suivante :)

Le premier IBM PC était vraiment une daube infâme comparée à beaucoup d'autres ordis qui étaient nettement plus performants sous Unix ou CP/M :)

J'ai d'ailleurs jamais compris que cette m. . .  devienne le standard :(

Bonne journée,

AG

  • Like 1

Share this post


Link to post
Share on other sites

J'adore ces anecdotes.

 

Pendant ma thèse (il y a 20 ans), un ancien du labo me racontait qu'un modèle qu'il étudiait (dans les années 70) demandait déjà beaucoup de ressources informatiques, et donc il fallait les économiser autant que possible.

Pour la faire simple, le modèle renvoyait une section efficace de diffusion en fonction de l'énergie d'une particule incidente.

 

Rien que calculer ensuite la section efficace intégrée sur l'énergie était l'intégrale de trop.

 

Alors ils traçaient la courbe de la section efficace en fonction de l'énergie à la table traçante.

Puis ils découpaient soigneusement aux ciseaux la surface correspondant à l'aire de l'intégrale à calculer, puis ils la pesaient avec une balance de précision !

Connaissant le grammage du papier, ils en déduisaient la valeur de l'aire, puis à partir des échelles fixées du graphique, ils en déduisaient la valeur de l'intégrale !!! Epique ! :D 

 

Pour en revenir au sujet :

Il y a 17 heures, Bruno- a dit :

La moralité ? Vous me voyez sûrement venir : a-t-on besoin de plus de puissance alors qu'on se promène avec des Cray II dans la poche ? Sera-ce pour trouver plus rapidement un vaccin ? Pour les calculs de l'engin spatial qui nous mènera sur Mars ? Lisons l'article "FLOPS" de Wikipédia : « le réseau de minage permettant la génération de la cryptomonnaie Bitcoin totalise une puissance d'environ 64 exaFLOPS. Il s'agit du réseau le plus puissant au monde ». Voilà à quoi ça va servir. Si Google s'y implique, nul doute que ce sera pour le traitement des énormes données qu'ils collectent afin de nous asservir par la publicité.

 

Il y a des problèmes de physique, même simples dans leur formulation, qui demandent énormément de ressources de calcul. Donc oui, il y a un réel besoin. Il y a 20 ans, j'ai développé un code pendant ma thèse de doctorat (j'en ai fait d'autres depuis, je vous rassure). Ce code donne encore des publications dont l'innovation tient à l'amélioration des ressources numériques au fil des années. Quand l'augmentation de la complexité de ton problème physique se traduit par l'augmentation de la taille des matrices que tu dois mouliner, ou que tel nouveau problème t'oblige à faire des intégrations sur une large plage d'énergies et de vecteurs d'ondes, la puissance de calcul et la mémoire de travail disponibles sont cruciales. 

 

Alors certes, le parallélisme vient en aide, et cela m'évoque aussi l'idée que, si comme toi je suis de la génération de ceux qui ont connu les stations de calcul scientifique, je suis aussi de celle qui a contribué à introduire les clusters de PC dans les labos. Nous étions étudiants en thèse, et on avait vite compris que faute de moyens financiers pour espérer avoir un Cray ou une autre station de calcul, l'alternative résidait dans le fait de monter des PC, plus abordables, en clusters.

Ici et là en Europe, ces initiatives ont conduit à l'émergence du concept de mésocentre de calcul intensif.

 

Alors je suis peut-être de ces vieux cons qui ont du mal à passer à autre chose, mais vu le nombre de machines à l'échelle mondiale, je crois encore beaucoup à ce principe qui est aussi à la base du calcul participatif.

 

Il y a 3 heures, Kaptain a dit :

Ça va bien au-delà de simples calculs en gigaflops, une véritable révolution se prépare permettant des calculs hyper rapides impensables même avec des petaflops et autres. On pourrait calculer le repliement des protéines de surface du coronavirus très rapidement, alors qu'on galère en ce moment malgré tous les efforts. Vraiment un autre monde, qui n'a rien à voir avec l'informatique habituelle, si puissante soit-elle. Encore faut-il parvenir à le fabriquer et le faire tourner d'une façon fiable...

 

Et toute la difficulté est là. L'ordinateur quantique universel (comme nos PC sont universels dans le sens où ils sont polyvalents) n'existe pas. 

Actuellement, les ordinateurs quantiques n'ont de sens dans leur conception que pour traiter des problèmes ciblés. Et encore, leur intérêt est d'ordre théorique, dans le sens où ils servent à démontrer des concepts d'algorithmique quantique. Autrement dit, et on l'a vu, les concepts actuels peinent à démontrer leur suprématie sur les approches classiques, dans le sens où cette suprématie, pour être effective, supposerait un nombre de Qbits dont on ne sait même pas si il est atteignable technologiquement.

Scientifiquement, ces recherches sont passionnantes, mais en pratique, les clusters, le calcul participatif et autre cloud computing ont encore de beaux jours devant eux.

 

Il y a également un autre concept que j'adore : celui du calcul participatif recourant non pas à une intelligence artificielle, mais à l'intelligence humaine. Un ami a par exemple développé un jeu qui en plus d'utiliser les ressources de la machine du joueur, utilise de fait les ressources cognitives du joueur lui-même. Si on multiplie cela par quelques milliers de joueurs (dans son cas), on obtient un système de calcul émergeant qui surclasse n'importe quelle machine. Dans le cas de mon ami, il s'agissait d'un problème d'ingénierie, mais ce genre d'approche est justement utilisée dans l'étude des repliement des protéines. C'est très élégant à mon gout, et pragmatique.

Edited by George Black
  • Like 3

Share this post


Link to post
Share on other sites

A propos de participatif, il existe un logiciel qui calcule justement ces histoires de protéines du coronavirus, sur le modèle de seti@home : folding@home :

https://foldingathome.org/

Je vous préviens, ça bouffe du jus, à tel point que je l'ai abandonné sur mon petit portable, les ventilos étaient trop souvent à fond...

Mais si vous avez un bonne bécane en tour, vous pouvez y aller.

  • Like 3

Share this post


Link to post
Share on other sites
Il y a 7 heures, George Black a dit :

Il y a des problèmes de physique, même simples dans leur formulation, qui demandent énormément de ressources de calcul.

 

C'est vraiment du grand n'import-nawak Georges... 9_9

 

Il est démontré dans le film Interstellar avec une logique rigoureusement physique, mathématique et kantienne (tant qu'on y est 9_9) qu'avec de simples signaux en morse transmis par une montre, une chercheuse talentueuse (et jolie) est parvenue à unifier la physique des cantiques avec celle de la relativité et ce, en toute généralité...

 

Si c'est pas une preuve de l'inutilité des méga computing centers, je ne sais pas ce qu'il vous faut de plus... Franchement, je vois pas. :ph34r:

 

image.png.6669dfa99f0639e0eea57cf4fce9dfb5.png

 

La preuve en image.

image.png.a9d73708a0e0df67db3b0ffd135039f4.png

 

  • Haha 4

Share this post


Link to post
Share on other sites
il y a 56 minutes, Alain MOREAU a dit :

J’adore ce que fait ce garçon en terme de vulgarisation, c’est juste remarquable 👍

 

C'est très bien et très intéressant, mais ça n'a rien à voir avec l'ordinateur quantique...

Share this post


Link to post
Share on other sites

T’as raison Kaptain, il suffit de demander (vieux grincheux, va, pire que le capitaine Haddock, çuy-ci ! >:(xD) : 

 

 

  • Like 2
  • Thanks 1

Share this post


Link to post
Share on other sites

Hein, quoi ? Moi râleur ? Cacochyme tant qu'on y est ?  scare.gifxD

Oui, ce petit jeune fait des vidéos remarquables, c'est super complet et je me demande où il pioche toutes ses infos...

Merci en tous cas.

  • Haha 1

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now