Sign in to follow this  
ms

Tegra X1

Recommended Posts

nVidia vient de sortir un nouveau SoC : le Tegra X1 avec augmentation de la puissance de calcul (1 teraFLOPS en FP16) de 40% par rapport à la génération précédente Tegra K1 vieille de seulement 1 an :

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Photographier la Lune
Guide complet pour la photographier de la Lune.
Information et commande sur www.photographierlalune.com

Salut
Bravo ms, encore une nouvelle technologie qui sera aussi vite dépassée !
Bizzzzzzzzzz

Share this post


Link to post
Share on other sites

Oui mais ce qui risque de ne pas être dépassé c'est le calcul GPGPU qui monte en puissance d'année en année comme le montre la deuxième courbe.

D'autre part c'est le début de la fin des machines de gamer à 2000 euros qui vont être remplacées dès le printemps 2015 par des configs à moins de 300 euros.

Share this post


Link to post
Share on other sites

ce genre de micro pc (ça tien dans la poche) équipé d'un Tegra X1 :

Share this post


Link to post
Share on other sites

ms : sauf que ta box (MintBox Mini avex Linux Mint), elle est équipée d'un CPU AMD et d'un GPU AMD ( Radeon R3, qui est vraiment bas de gamme : parfait pour décoder de la vidéo, pas pour jouer. D'autant plus qu'il est à mémoire commune avec le CPU....).
Rien à dire côté connectivité, et il y aura un SSD de 64G. Comme dit ce site
http://www.pcworld.com/article/2871328/the-mintbox-mini-is-a-silent-quad-core-linux-mint-pc-that-fits-in-your-pocket.html
c'est amplement suffisant pour surfer, écrire du texte ou regarder une vidéo.


D'autre part, au sujet des tegra K1 et X1 : sur que ce sont/seront d'excellents processeurs pour des tablettes. Mais il ne faut pas comparer avec la puissance de calcul de ce que l'on trouve dans des PC.... Exemple : le K1 est dans l'Asus Nexus 9 et le but du X1 c'est le marché de l'embarqué dans l'automobile.

Les "bons" GPU ( pas les très hauts de gamme hors de prix) ont plus de 500 pipelines, un bus mémoire 128 voire 256 bits en DDR5 ( dans les 5 GHz)... Je parle de cartes graphique à 150€. Bon, c'est sur que ca consomme beaucoup plus qu'un tegra. Mais c'est 5 à 10 fois plus rapide.

Nvidia annonce plus d'1 Gflops, mais c'est en 16 bits. Ca tombe à 500 Mflops en 32 bits.

Share this post


Link to post
Share on other sites

Primo, ce n'est pas ma box.
Secundo, ce mini pc linux a en gros la puissance d'un Core i3.
Tercio, le X1 c'est en gros 40% de puissance en plus que le K1.

quote:
Les "bons" GPU ( pas les très hauts de gamme hors de prix) ont plus de 500 pipelines, un bus mémoire 128 voire 256 bits en DDR5 ( dans les 5 GHz)...

Tout dépend de l'application et des algorithmes utilisés.
En 128-bit, la GTX960 (1024 coeurs CUDA) et en 256-bit, la GTX970 (1664 coeurs CUDA).

[Ce message a été modifié par ms (Édité le 22-02-2015).]

Share this post


Link to post
Share on other sites

Une question concernant ce format de PC (Mint Box Mini): j'aimerais avoir la puissance, disons d'un i7, pour faire de la video (Adobe Première), pas de gaming, sous Windows. Peut-être avec 8GB de RAM?
Est-ce que cela existe?
Merci.

Share this post


Link to post
Share on other sites

A 300€, on a presque un NUC i5, et on a un NUC i3. Du coup le coût de ce X1 me paraît bien élevé pour une puissance de tablette android !

Share this post


Link to post
Share on other sites

Le Tegra X1 est environ 50% plus puissant que son prédécesseur le Tegra K1.
Il supporte la programmation en virgule flottante en demi-précision (FP16) ce qui est suffisant pour certains algorithmes.

NVIDIA va sortir une console de jeu X1 début mars, ce qui devrait permettre d'obtenir de la puissance de calcul à coût raisonnable contrairement aux machines de gamer à 2000 euros.

Share this post


Link to post
Share on other sites

Si tu arrives à faire tourner Battle Field 4 en full là dessus, alors cela sera vérifié

Share this post


Link to post
Share on other sites

Bonjour à tous,
Oserais-je m' immiscer dans cette merveilleuse discussion et vous demander simplement, en tant que dinosaure que je suis, de vous exprimer en langage intelligible pour les vieux c.... dépassés que nous sommes. Nous aussi on voudrait comprendre un tout petit peu, si le sujet a un rapport avec l'astro.
Très bon ciel à tous , et sans rancune, evidemment.
Marc.

Share this post


Link to post
Share on other sites

très intéressant tout ça. L'intérêt pour l'astro, c'est pas vraiment les RPG ou les MMORPG, mais la capacité de traitement d'image, éventuellement en temps réel. Les architectures massivement parallèles sont bien pour ça. Effectivement ça commence à être utilisé dans le monde professionnel, et le coût est très intéressant comparé aux cartes video haut de gamme.

Share this post


Link to post
Share on other sites

Ben oui, la programmation GPGPU permet d'accélérer certains algorithmes dans un rapport de 1 (votre PC de bureau) à 100 (grâce aux centaines de cœurs CUDA présents dans certaines cartes graphiques).

Ainsi certaines applications de traitement d'images peuvent désormais s'exécuter en temps-réel.

Ben Tournesol à 10W de consommation c'est de la décroissance.

Share this post


Link to post
Share on other sites

Ceux qui connaissent la GeForce GTX 750 (c'est pas une moto GG ) peuvent déjà imaginer ce qu'on peut faire en programmation GPGPU avec un Tegra X1.

Share this post


Link to post
Share on other sites

Dommage que les deux fabricants (AMD et NVidia) ne se soient pas entendus sur un même langage de développement pour l'exploitation des GPU : CUDA pour NVidia et OpenCL pour AMD. Bien que AMD dise que ce soit "simple" de porter les applications CUDA en OpenCL (http://developer.amd.com/tools-and-sdks/opencl-zone/opencl-resources/programming-in-opencl/porting-cuda-applications-to-opencl/) ça nécessite tout de même de maintenir deux versions et c'est plutôt chiant : de l'adoption d'une norme commune à mon avis dépendra l'avenir de cette technologie ... ou il faut attendre qu'un autre acteur (Intel ?) vienne fourrer son nez dans tout ça pour remettre un peu d'ordre.

Share this post


Link to post
Share on other sites
quote:
CUDA pour NVidia et OpenCL pour AMD

J'ai pas trop ce problème dans la mesure où j'attaque ces cartes graphiques via des macros Julia (@target, @cuda, ...) intégrées au langage, un peu à la façon de Tim Besard : http://blog.maleadt.net/2015/01/15/julia-cuda/

quote:
de l'adoption d'une norme commune à mon avis dépendra l'avenir de cette technologie ...

L'avenir c'est de ne pas compter sur les annonces de tous ces pros du marketing informatique (NVIDIA, AMD, INTEL, ...) mais travailler plutôt avec des gens sérieux comme ceux qui ont développés Julia.

Share this post


Link to post
Share on other sites

Sans comptez que beaucoup de laptops sont sur un chipset Intel intégré.

Vous le voulez comment votre soft, x86 ou x64n, Open CL ou NVidia ? ...

Share this post


Link to post
Share on other sites

C'est tout récent, pour 199$, une console de 210 x 130 x 25 mm avec Tegra X1, 16GB, HDMI 2.0, port réseau Gigabit, deux USB 3.0, un micro USB 2.0, un lecteur de carte MicroSD, Wi-Fi 802.11ac et Bluetooth 4.1.
Il ne reste plus qu'à y implanter Linux comme cela a été fait sur le modèle précédent (Tegra K1) et grâce aux gamers, nous avons une machine CUDA lowcost. Ça ressemble bien à mon micro PC qui rentre dans la poche, non ?

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this