Sign in to follow this  
typhoons

Transformer son PC en super calculateur avec un carte dédiée

Recommended Posts

Bonjour à tous
De nouvelles cartes Intel nommées les xeon phi serviraient à transformer nos ordinateurs personnels actuels ( avec 4 cœurs ou 6 cœurs ) en super machines dotées de 60 cœurs.
http://www.comptoir-hardware.com/actus/processeurs/21324-les-xeon-phi-2013-arrivent-jusqua-61-coeurs-a-125ghz.html

Quelle serait vraiment leur utilité ?
Par exemple ces cartes fonctionneraient elles, avec tous les logiciels grand public que nous utilisons style windows, Suite adobe, pixinsight, jeux, video... Afin d en décupler la rapidité ?
Ou est ce que ce sont des produits spécifiques qui ne fonctionnent qu en les programmant ?

Si on a un i7 4771 par exemple, ces cartes décupleraient elles notre puissance de feu pour toutes les appli sachant profiter du multitheading ?

informaticiens pouvez vous nous en expliquer d'avantage ?
Benoit

Share this post


Link to post
Share on other sites
Advertising
By registering on Astrosurf,
this type of ad will no longer be displayed.
Planetary Astronomy
Observing, imaging and studying the planets
A comprehensive book about observing, imaging, and studying planets. It has been written by seven authors, all being skillful amateur observers in their respective domains.
More information on www.planetary-astronomy.com

Salut,

Ce genre de carte nécessite du code spécifique pour en tirer partie. Tu ne peux pas prendre le code ton processeur x86 et l'exécuter dessus de manière transparente. Ton Windows ne verra pas non plus subitement apparaitre 60 coeurs supplémentaires qu'il pourra utiliser pour toutes ses applications.

Elles sont généralement utilisées pour des applications extrèmement gourmandes en calcul ( simulation numérique pour la météo, la resistance des matériaux, la recherche, la 3D, le cryptage, etc...).

Si les développeurs de pixinsight intégraient à leur logiciel des routines spécialement pour ces cartes, on pourrait en tirer partie. Mais en pratique comme ces cartes auront plutôt un public professionnel dans un premier temps, il y a peu d'espoir que les développeurs de tes logiciels favoris investissent un temps important en R&D sur ce matériel, pour des retombées économiques très faibles. C'est en tous cas le cas à l'heure actuelle, mais ça peut quand même changer dans l'avenir.

Un matériel de ce type bien plus répandu dans le grand public sont les cartes graphiques pour le jeu vidéo avec leurs puissants GPU ( celles-là même qu'Intel veut concurrencer avec ses cartes Xeon Phi ). Certains logiciels Adobe comme Photoshop (depuis la CS4, quelques infos ici http://forums.adobe.com/message/4289204) ont inclus des routines pour en tirer partie, mais ça n'a pas fait grand bruit. Il faut dire qu'avec Photoshop on ne travaille généralement que sur une seule image à la fois. Or le grand bénéfice lié à l'accélération fournie par ce type de carte se ressent surtout lorsqu'on fait du calcul de masse sur de grandes séries de données qu'on va pouvoir facilement partager entre tous les coeurs.

Dans le cas de la vidéo par exemple, avec 60 coeurs, tu pourras traiter 60 images en parallèle (une par coeur). Mais notes que ces coeurs ne sont pas très rapides (1,25Ghz). Pour traiter une seule image le plus rapidement possible, il vaudrait alors mieux avoir un seul coeur à 4 Ghz par exemple.

Sauf qu'en pratique les images sont composées de nombreux pixels qu'on pourrait répartir entre les coeurs pour un traitement en parallèle, donc une seule image pourrait quand même bénéficier de l'usage de plusieurs coeurs. Mais ce mauvais exemple devrait te permettre de comprendre la philosophie du traitement multi-coeurs : tu ne peux vraiment en bénéficier que si tu travailles sur un jeux de données dont tu pourras distribuer un petit morceau à chaque coeur. Ceci n'est donc pas valable pour toutes les applications. Pour l'imagerie, heureusement c'est le cas. Mais tu ne rentabiliseras vraiment ton investissement que si tu travailles sur beaucoup d'images.

[Ce message a été modifié par albanc (Édité le 09-11-2013).]

Share this post


Link to post
Share on other sites
d'accord avec alblanc. De plus, à moins qu'il n'y ai eu du nouveau, cette carte se comporte comme une machine autonome (à 60 coeurs) et crée une sorte de reseau avec la machine hote, et les 2 doivent être sous linux...

Share this post


Link to post
Share on other sites
Adobe notemment première exploite à fond les coeurs CUDA Nvidia.

C est d'ailleurs fort regrettable que nos logiciels n exploitent pas cette formidable puissance de calcul que sont ceux de nos cartes Graphique, quel gâchis de puissance inexploitée...

D ou ma question initiale pour les cartes phi...

Dommage...

Benoit


Share this post


Link to post
Share on other sites
"Dans le cas de la vidéo par exemple, avec 60 coeurs, tu pourras traiter 60 images en parallèle (une par coeur). Mais notes que ces coeurs ne sont pas très rapides (1,25Ghz). Pour traiter une seule image le plus rapidement possible, il vaudrait alors mieux avoir un seul coeur à 4 Ghz par exemple. "

question
les bonnes cartes graphiques fonctionnent en 384 bits
est ce que cela compense la faiblesse 1.25Ghz ?

Share this post


Link to post
Share on other sites
c'est super compliqué de répondre de facon générale, vu les contrainte pour exploiter la bande passante des GPU, les performances dépendent fortement des algorithmes.... quand ca se passe bien le GPU peut "exploser" le CPU, et sur d'autre problèmes pas du tout...

Share this post


Link to post
Share on other sites
>les bonnes cartes graphiques fonctionnent en 384 bits
est ce que cela compense la faiblesse 1.25Ghz ?

En quelques sortes oui. Le 384 bits correspond à la bande passante mémoire. Plus ce tuyau est large et plus tu peux communiquer d'informations en même temps entre le CPU et la mémoire.

Il n'y a pas que la fréquence du GPU qui compte, mais aussi donc la bande passante de la mémoire, la fréquence de cette mémoire et le fait de disposer d'instructions spécialisées de manière cablée en hardware dans le GPU : ceci permet d'exécuter certaines opérations extrêmement rapidement par des circuits spécialisées pour cette tache donnée (par exemple additionner simultanément toutes les valeurs RVBA de 2 pixels en 1 seul cycle d'horloge). Donc à fréquence égale un GPU sera plus rapide qu'un CPU pour traiter certains types d'opérations pour lequel il a été optimisé.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this