-ms-

Tegra X1

Messages recommandés

nVidia vient de sortir un nouveau SoC : le Tegra X1 avec augmentation de la puissance de calcul (1 teraFLOPS en FP16) de 40% par rapport à la génération précédente Tegra K1 vieille de seulement 1 an :

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut
Bravo ms, encore une nouvelle technologie qui sera aussi vite dépassée !
Bizzzzzzzzzz

Partager ce message


Lien à poster
Partager sur d’autres sites
Oui mais ce qui risque de ne pas être dépassé c'est le calcul GPGPU qui monte en puissance d'année en année comme le montre la deuxième courbe.

D'autre part c'est le début de la fin des machines de gamer à 2000 euros qui vont être remplacées dès le printemps 2015 par des configs à moins de 300 euros.

Partager ce message


Lien à poster
Partager sur d’autres sites
ce genre de micro pc (ça tien dans la poche) équipé d'un Tegra X1 :

Partager ce message


Lien à poster
Partager sur d’autres sites
Ça fait tourner combien de jeux en 4K avec un FPS décent (> 60) cette MintBox ?

Partager ce message


Lien à poster
Partager sur d’autres sites
ms : sauf que ta box (MintBox Mini avex Linux Mint), elle est équipée d'un CPU AMD et d'un GPU AMD ( Radeon R3, qui est vraiment bas de gamme : parfait pour décoder de la vidéo, pas pour jouer. D'autant plus qu'il est à mémoire commune avec le CPU....).
Rien à dire côté connectivité, et il y aura un SSD de 64G. Comme dit ce site
http://www.pcworld.com/article/2871328/the-mintbox-mini-is-a-silent-quad-core-linux-mint-pc-that-fits-in-your-pocket.html
c'est amplement suffisant pour surfer, écrire du texte ou regarder une vidéo.


D'autre part, au sujet des tegra K1 et X1 : sur que ce sont/seront d'excellents processeurs pour des tablettes. Mais il ne faut pas comparer avec la puissance de calcul de ce que l'on trouve dans des PC.... Exemple : le K1 est dans l'Asus Nexus 9 et le but du X1 c'est le marché de l'embarqué dans l'automobile.

Les "bons" GPU ( pas les très hauts de gamme hors de prix) ont plus de 500 pipelines, un bus mémoire 128 voire 256 bits en DDR5 ( dans les 5 GHz)... Je parle de cartes graphique à 150€. Bon, c'est sur que ca consomme beaucoup plus qu'un tegra. Mais c'est 5 à 10 fois plus rapide.

Nvidia annonce plus d'1 Gflops, mais c'est en 16 bits. Ca tombe à 500 Mflops en 32 bits.

Partager ce message


Lien à poster
Partager sur d’autres sites
Primo, ce n'est pas ma box.
Secundo, ce mini pc linux a en gros la puissance d'un Core i3.
Tercio, le X1 c'est en gros 40% de puissance en plus que le K1.

quote:
Les "bons" GPU ( pas les très hauts de gamme hors de prix) ont plus de 500 pipelines, un bus mémoire 128 voire 256 bits en DDR5 ( dans les 5 GHz)...

Tout dépend de l'application et des algorithmes utilisés.
En 128-bit, la GTX960 (1024 coeurs CUDA) et en 256-bit, la GTX970 (1664 coeurs CUDA).

[Ce message a été modifié par ms (Édité le 22-02-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Une question concernant ce format de PC (Mint Box Mini): j'aimerais avoir la puissance, disons d'un i7, pour faire de la video (Adobe Première), pas de gaming, sous Windows. Peut-être avec 8GB de RAM?
Est-ce que cela existe?
Merci.

Partager ce message


Lien à poster
Partager sur d’autres sites
A 300€, on a presque un NUC i5, et on a un NUC i3. Du coup le coût de ce X1 me paraît bien élevé pour une puissance de tablette android !

Partager ce message


Lien à poster
Partager sur d’autres sites
Le Tegra X1 est environ 50% plus puissant que son prédécesseur le Tegra K1.
Il supporte la programmation en virgule flottante en demi-précision (FP16) ce qui est suffisant pour certains algorithmes.

NVIDIA va sortir une console de jeu X1 début mars, ce qui devrait permettre d'obtenir de la puissance de calcul à coût raisonnable contrairement aux machines de gamer à 2000 euros.

Partager ce message


Lien à poster
Partager sur d’autres sites
Si tu arrives à faire tourner Battle Field 4 en full là dessus, alors cela sera vérifié

Partager ce message


Lien à poster
Partager sur d’autres sites
Nous ce dont on rêve, c'est autostakkert2 en CUDA.

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour à tous,
Oserais-je m' immiscer dans cette merveilleuse discussion et vous demander simplement, en tant que dinosaure que je suis, de vous exprimer en langage intelligible pour les vieux c.... dépassés que nous sommes. Nous aussi on voudrait comprendre un tout petit peu, si le sujet a un rapport avec l'astro.
Très bon ciel à tous , et sans rancune, evidemment.
Marc.

Partager ce message


Lien à poster
Partager sur d’autres sites
très intéressant tout ça. L'intérêt pour l'astro, c'est pas vraiment les RPG ou les MMORPG, mais la capacité de traitement d'image, éventuellement en temps réel. Les architectures massivement parallèles sont bien pour ça. Effectivement ça commence à être utilisé dans le monde professionnel, et le coût est très intéressant comparé aux cartes video haut de gamme.

Partager ce message


Lien à poster
Partager sur d’autres sites
Ben oui, la programmation GPGPU permet d'accélérer certains algorithmes dans un rapport de 1 (votre PC de bureau) à 100 (grâce aux centaines de cœurs CUDA présents dans certaines cartes graphiques).

Ainsi certaines applications de traitement d'images peuvent désormais s'exécuter en temps-réel.

Ben Tournesol à 10W de consommation c'est de la décroissance.

Partager ce message


Lien à poster
Partager sur d’autres sites

Ceux qui connaissent la GeForce GTX 750 (c'est pas une moto GG ) peuvent déjà imaginer ce qu'on peut faire en programmation GPGPU avec un Tegra X1.

Partager ce message


Lien à poster
Partager sur d’autres sites
Dommage que les deux fabricants (AMD et NVidia) ne se soient pas entendus sur un même langage de développement pour l'exploitation des GPU : CUDA pour NVidia et OpenCL pour AMD. Bien que AMD dise que ce soit "simple" de porter les applications CUDA en OpenCL (http://developer.amd.com/tools-and-sdks/opencl-zone/opencl-resources/programming-in-opencl/porting-cuda-applications-to-opencl/) ça nécessite tout de même de maintenir deux versions et c'est plutôt chiant : de l'adoption d'une norme commune à mon avis dépendra l'avenir de cette technologie ... ou il faut attendre qu'un autre acteur (Intel ?) vienne fourrer son nez dans tout ça pour remettre un peu d'ordre.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
CUDA pour NVidia et OpenCL pour AMD

J'ai pas trop ce problème dans la mesure où j'attaque ces cartes graphiques via des macros Julia (@target, @cuda, ...) intégrées au langage, un peu à la façon de Tim Besard : http://blog.maleadt.net/2015/01/15/julia-cuda/

quote:
de l'adoption d'une norme commune à mon avis dépendra l'avenir de cette technologie ...

L'avenir c'est de ne pas compter sur les annonces de tous ces pros du marketing informatique (NVIDIA, AMD, INTEL, ...) mais travailler plutôt avec des gens sérieux comme ceux qui ont développés Julia.

Partager ce message


Lien à poster
Partager sur d’autres sites
Sans comptez que beaucoup de laptops sont sur un chipset Intel intégré.

Vous le voulez comment votre soft, x86 ou x64n, Open CL ou NVidia ? ...

Partager ce message


Lien à poster
Partager sur d’autres sites
C'est tout récent, pour 199$, une console de 210 x 130 x 25 mm avec Tegra X1, 16GB, HDMI 2.0, port réseau Gigabit, deux USB 3.0, un micro USB 2.0, un lecteur de carte MicroSD, Wi-Fi 802.11ac et Bluetooth 4.1.
Il ne reste plus qu'à y implanter Linux comme cela a été fait sur le modèle précédent (Tegra K1) et grâce aux gamers, nous avons une machine CUDA lowcost. Ça ressemble bien à mon micro PC qui rentre dans la poche, non ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant