jldauvergne

Quelqu'un s'y connait en cartes graphiques ?

Messages recommandés

Hello
n'étant pas très geek, je n'arrive pas à savoir si une NVIDIA GeForce GTX 960M 4 Go est capable de gérer un bureau fait de 2 écrans 4K ?
Pour les jeux vidéos j'ai déjà un peu la réponse, c'est plutôt non. Mais ce n'est pas l'usage envisagé, plutôt bureautique / photo et occasionnellement vidéo (notamment 4K)

Nvidia donne les spec suivantes :
GTX 960M Engine Specs: 640 CUDA Cores
Base Clock (MHz) : 1096 + Boost
Memory Clock : 2500 MHz
Memory Interface : GDDR5
Memory Interface Width : 128-bit
Memory Bandwidth : 80(GB/sec)
Bus support : PCI Express 3.0

Si vous avez des idées je suis preneur

JLuc

Partager ce message


Lien à poster
Partager sur d’autres sites
Je ne pense pas.
le 4k (purevideo inclus) c'est de l'accélération matérielle, c'est le maximum intégré dans la puce
Pour le dual screen, ça va "ramer".
Même une titan X a du mal à gérer, alors une x50M (mobile) certainement pas.
Tu n'auras l'accélération que sur un écran et sans doute pas le rafraichissement normal
traduit de ce post Tom's Hardware http://www.tomshardware.co.uk/answers/id-2621645/dual-single-gpu.html

Partager ce message


Lien à poster
Partager sur d’autres sites
Ça dépend de ce que tu fais.
A mon avis pour ton usage c'est pas un soucis.
Pour la bureautique, aucun problème.
Pour la photo pas besoin d'accelération matérielle ce qui libère des cuda pour le calcul des filtres.
Pour la video, là l'accélération matérielle va être utile, mais à priori utilisé que sur un écran. Pour moi ça va encore d'autant que c'est occasionnel. La ram vidéo pourrait être le facteur limitant dans ce cas.

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci pour ces précisions. Ca va dans le sens de ce que vient de me dire Arnaud Frich que je viens d'avoir au téléphone. Ce qui compte c'est la connectique visiblement. Il faut plutôt passer par le display port pour bien faire.

Partager ce message


Lien à poster
Partager sur d’autres sites
Oui tout à fait.

Sur Mac un peu le même soucis pour le 5K, Apple à choisit le ATI qui sait le gérer plutôt que Nvidia.

Partager ce message


Lien à poster
Partager sur d’autres sites
Je viens de voir que c'est du display port 1.2 sur le site de GeForce pour la carte 960 (la version desktop de la 960M) http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-960/specifications
du 4k à 24img/s ça fait 7,7 Gbits/s par display pour 21,6 Gbits/s au maximum.
Ca va passer mais ce ne sera pas aussi confortable que d'habitude en 50Hz ou plus.
Vérifie sur la doc du portable si la version du Display Port est indiquée.
Sinon tu pourras toujours descendre en 2560x1600 sur l'écran sur lequel tu travailles si ça te fatigue un peu les yeux.
Pour le double écran 4K, full specs, il faut la version 1.3 du Display Port http://www.displayport.org/wp-content/uploads/2014/09/DP-1.3-Overview-for-VESA-v1.pdf

J'ai pas lu tout mais voici la présentation de la version 1.2 http://www.vesa.org/wp-content/uploads/2010/12/DisplayPort-DevCon-Presentation-DP-1.2-Dec-2010-rev-2b.pdf

Qu'on soit bien en phase, ce n'est pas parce que tu as plusieurs connecteurs que tu as plusieurs fois le débit, ça fonctionne comme un Hub, avec partage de la bande passante.

[Ce message a été modifié par lyl (Édité le 26-12-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
De toute façon c'est le chip qui va limiter le débit graphique sur les bureaux, qui sont ensuite transmis par chaque interface. Mais comme dit ci dessus, pour du display, y compris en 4K, c'est accessible aux chips intégrés (un i5 6600 supporte au maximum 4096*2304 @ 60Hz mais il faudra passer en displayport (HDMI 1.4 ce sera 24Hz max).

N'importe quelle carte graphique de moyenne gamme supportera la résolution pour de l'affichage + photo, en vidéo faut voir le logiciel (certains préfèrent du Nvidia, d'autres de l'ATI), et pour les jeux ce sera niet ... ou alors en mode slide-show !


Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
La version du display port n est pas précisée. Mais il est clair que si j ai besoin de 60 hz en 4k un jour, je peux degrader un ecran ou passer sur un seul.
Le processeur sinon est un i7.

Partager ce message


Lien à poster
Partager sur d’autres sites
Un petit ajout en passant ; les cartes graphiques sont (généralement) très optimisées pour la 3D. Pour la 2D (comprendre l'usage de tous les jours) elles le sont beaucoup moins. Et dans beaucoup j'entends non pas des rapports de quelques % ou quelques dizaines de %. Dans ce fil, le gusse note que sa nvidia quadro FX 4500 se fait tailler en pièces (500% de mieux) par une "simple" GT 500. http://www.passmark.com/forum/pc-hardware-and-benchmarks/3258-how-to-find-a-graphics-card-with-incredible-2d-performance-advanced-baseline-sear

Là encore, (http://www.phoronix.com/scan.php?page=article&item=amd_nvidia_2dhigh&num=2) des cartes plus actuelles (2014) montrent leur différences. Nvidia versus ATI c'est un éternel recommencement.

Je n'ai pas retrouvé un test lu il y a quelque temps comparant les performances 2D des SoC intel i3/5/7 versus les cartes graphiques ... mais là encore, les fonctions intégrées aux CPU étaient souvent devant parfois très largement) en terme de performance 2D. Cela s'explique car ces solutions sont intégrées pour de la bureautique (affichage de texte, de fenêtre et d'images) et qu'elles sont optimisés pour. L'utilisateur 3D utilisera une carte dédiée donc les SoC sont rarement optimisés pour et largement en retrait sur l'exercice !

Le piège jean luc c'est la vidéo qui peut nécessiter de faire faire quelques opérations par un composant dédié. La compression x264 se fait un peu plus vite par le GPU de l'i7 mais avec une qualité moindre que ce que fait le CPU. Par contre se faisant le CPU peut alors faire "autre chose" ce qui peut faire toute la différence. Je n'ai pas noté d'amélioration sensible sur d'autres fonctions (GPU versus CPU) mais c'est peut être aussi parce que le i7 est très performant. Avec un i5 (même GPU) les calculs CPU seraient très inférieurs et la conclusion forcément différente.

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant