Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

 

 

 

 

La restitution des images sur ordinateur

Performances des cartes graphiques (V)

L’apport le plus important réalisé sur les cartes graphiques a certainement été l’ajout de la précision de couleur dite en virgule flottante sur 64 et même 128 bits. De quoi s'agit-il ? Faisons un petit rappel, car effectivement l'ingénierie informatique use et abuse de termes techniques face auxquels même un technicien en informatique peut vite perdre pieds s'il ne reste pas au faîte de l'actualité.

Nous avons brièvement expliqué qu'un pixel est caractérisé par trois informations de couleur présentant généralement chacune (8 bits/couleur) une dynamique maximale de 256 nuances (0 à 255). Dans le monde de l'infographie, les utilisateurs exigent des rendus optimisés où le noir par exemple ne peut pas être gris et les différentes zones claires doivent pouvoir se différencier les unes des autres, sans parler des changements de gamma. 

Pour parvenir à ce résultat, la gamme des 256 nuances est insuffisante, car en cours de traitement il y aura des pertes d'information dans les hautes et les basses lumières, bref l'image perdra sa qualité. Pour caricaturer, un pixel ne peut pas être soit allumé soit éteint si on veut représenter toutes les nuances de l'espace chromatique. 

A partir du seul signal électrique standard de chaque canal RGB et éventuellement en tenant compte de bits supplémentaires, il faut donc trouver une méthode pour étendre ce nuancier.

Jamais à cours d'idée, pour améliorer la précision des calculs, les ingénieurs ont développé  la technologie dite "en virgule flottante" évoquée précédemment. Si elle est implémentée depuis des décennies (depuis 1941 dans le calculateur à relais Z3 de K.Zuse et ensuite dans tous les processeurs des cartes-mères), ce n'est qu'assez récemment qu'elle a été appliquée aux processeurs des cartes graphiques ainsi qu'aux logiciels d'imagerie. Le format en virgule flottante ne fut normalisé qu'en 1985 (IEEE 754).

Avantages d'un processeur en virgule flottante

Que signifie "virgule flottante" ? C'est un terme barbare pour dire simplement que le nombre, entier ou décimal, est exprimé en puissance de 10. Ainsi 128000 = 1.28 x 105, qui s'écrit aussi 1.28E5. Dans le cas de petits nombres, l'intérêt de cette transcription est secondaire. Mais l'informatique manipulant des grands nombres ou des valeurs décimales dont le premier chiffre significatif est très loin derrière la virgule, cette méthode offre un gain important de place en mémoire. Elle facile également les calculs, notamment toutes les opérations qui combinent et manipulent les images. Cela concerne avant tout et essentiellement toutes les opérations graphiques complexes et souvent dynamiques (3D, animation, etc) mais également des domaines jusque là ignorés comme la retouche photo.

En effet, la correction des images est généralement un procédé statique qui se contente d'un ordinateur relativement lent équipé d'une carte graphique tout à fait ordinaire. Or nous allons voir que la virgule flottante peut aussi faciliter ce travail en élargissant l'espace mémoire et le nuancier accessibles à l'image.

Cartes graphiques 3D accélératrices. On reconnaît en vert à l'avant-plan une NVidia GeForce 7900 GTX (550 € en 2006) posée sur différents modèles plus modestes Sapphire Atlantis Radeon d'ATI (~250 € en 2003).

Sans entrer dans les détails que vous trouverez sur Internet, un calcul en virgule flottante nécessite une reprogrammation des formules et des modifications hardware, notamment des registres et autres buffers mémoires (framebuffers, etc) à toutes les étapes du traitement graphique.

En utilisant une technologie en virgule flottante, la valeur d'une couleur n'est plus définie par un simple nombre entier compris entre 0 et 255 mais s'étend sur au moins 3 octets obéissant à la relation : x=m2e, où x est le nombre, m la mantisse et e l’exposant.

Ainsi, sur une carte 32 bits (4 octets), l'information d'un pixel est distribuée en virgule flottante simple précision en respectant le format IEEE suivant : le premier bit est réservé au signe, les 8 bits suivant gèrent l'exposant tandis que les 23 bits restant sont dédiés à la mantisse. Dans un format binaire 64 bits (8 octets) en double précision, 11 bits sont réservés à l'exposant et 52 bits à la mantisse.

En utilisant cette méthode, dans le cas d'une précision de 10 bits/couleur en virgule flottante, un pixel peut présenter non plus 256 mais 230 états différents, y compris négatifs. Ces états distincts sont indépendants du fait que les bits soient interprétés comme entiers ou comme décimaux. En fait, le nombre d'états est inférieur lorsqu'il s'agit de nombres décimaux car certaines configurations de bits (patterns) représentent des états non réels ou trop proches de zéro (moins l'infini, plus l'infini, underflow, Not A Number, etc). Malgré ces états particuliers, il reste tout de même plusieurs centaines de millions de combinaisons ! On est quelques facteurs au-dessus des performances d'une carte 32 bits codant la couleur sur 8 malheureux bits fixes.

Ainsi que nous l'avons évoqué, l'avantage de la virgule flottante est d'utiliser moins de bits de mémoire lors de la manipulation des images. Mais plus intéressant encore, nous savons que la carte graphique doit générer un signal vidéo pour piloter le convertisseur digital/analogique afin de produire une intensité lumineuse qui sera affichée à l'écran

Avec une image représentée en mémoire sous forme d'une table en virgule flottante, on peut agrandir et corriger une petite zone de l'écran pour faire apparaître des détails qui étaient jusque là sur ou sous-exposés. Cela se fait simplement en changeant une table de correspondance. La modification est instantanée car elle se fait directement sur la carte vidéo.

Devant ces nouvelles performances, on comprend mieux l'intérêt d'utiliser une précision de couleur en virgule flottante. On constate de visu une amélioration sensible du rendu chromatique des images (les couleurs sont plus saturées), de la dynamique de la luminance (le contraste) et des options de zoom qui atteignent une qualité inégalée jusqu'à présent.

Bien sûr cette technologie se paye aussi au prix fort et seuls les stations graphiques ou les écrans haut de gamme en bénéficient.

Ce n'est donc pas sans raison que de plus en plus de cartes graphiques, notamment ATI et Nvidia disposent de nuanciers intelligents (smartshader) présentant une précision de 64 à 128 bits en virgule flottante. Ces cartes offrent un support total des fonctions DirectX 9.0 de Microsoft et OpenGL, les interfaces de programmation standards de la nouvelle génération de jeux.

Leur rendu ne peut pas encore bleufer un photographe mais le réalisme de ces programmes nous permet de croire que les futurs simulateurs et logiciels 3D exploitant les textures se rapprocheront de très près de la réalité. Quant au domaine de la photo et de la retouche des images, ces nouvelles fonctions apportées par les "floats" rangent une bonne partie du travail assidu de correction en chambre noire aux oubliettes.

Parmi les autres systèmes exploitant la virgule flottante, citons les célèbre formats FITS, TIFF, RGBE et PFM qui travaillent en 16 ou 32 bits et le fameux HDR, le format hautement dynamique déjà évoqué, promu à un bel avenir. Quelques écrans TFT et le logiciel Adobe Photoshop depuis la version CS le supportent également.

Evolution des cartes graphiques 3D accélératrices

Revers de cette technologie sophistiquée, le travail d'un processeur 32 bits en virgule flottante requiert 4 fois plus de bande passante qu'une carte 32 bits ordinaire; on parle ici de débit d'informations (fill rate) qui se chiffre en gigapixels/sec plutôt qu'en mégapixels/sec !

Notons qu'aujourd'hui, Nvidia ne calcule plus en gigapixels/s mais en gigatexel/s ce qui induit le client en erreur. En effet, un texel représente un point d´une texture alors qu'un pixel est le point élémentaire affiché à l'écran qui peut se composer de plusieurs texels. Des fill rates de 338 gigatexels/s comme sur la carte NVidia GeForce GTX TITAN Z est donc plusieurs ordres de grandeur supérieur au fill rate exprimé en gigapixels/s.

A consulter : Guide d'achat des cartes graphiques, Les Numériques, 2016

Comparatif cartes graphiques (Tom's hardware) - Videocard benchmark

A gauche, la carte graphique accélératrice NVIDIA GeForce 7800 GTX (510 € en 2005, score benmarch de 228) et un gros-plan sur son processeur G70. A droite, l'évolution des performances des processeurs des cartes graphiques NVidia par rapport à celles des processeurs classiques. Les GPU de la série M (par ex. GTX 950 et 980) sont en architecture Maxwell, ceux de la série K (par ex. GTX 780 et TITAN) sont en architecture Kepler. Les premières cartes en architecture Pascal sorties en 2016 sont les GTX 1070 et 1080 à processeur GP100. Documents Nvidia adaptés par l'auteur.

Pour s'affranchir du goulet d'étranglement que représente le fill rate ou débit d'information, il faut donc soit attendre un progrès technologique qui peut être très lent soit trouver une voie alternative plus économique. Faute de disposer de la technologie, les constructeurs ont évidemment choisi des technologies ou plutôt des architectures alternatives et adaptés les algorithmes en conséquence (notamment pour gérer les systèmes multi-coeurs).

La carte Radéon 9700 de 128 MB d'ATI par exemple commercialisée en 2002 était la première carte graphique à supporter la technologie DirectX 9.0, une bibliothèque de composants multimédia développée par Microsoft. Cette carte d'entrée de gamme était pilotée par un processeur R300 cadencé à 325 MHz seulement, mais il utilisait 8 pipelines (pour fonctionner en parallélisme d'instruction) fournissant en sortie un débit de 8x 325 MHz, soit un fill rate de 2.6 Gpixels/s, la bande passante de sa mémoire dépassant 16 GB/s. Mais déjà à son époque cette carte n'était pas la plus rapide et ne convenait pas au traitement d'animations complexes en 3D et encore moins au ray-tracing. Son score benchmark est de 44, juste suffisant diront les mauvaises langues pour jouer avec MS-Paint ! Mais à condition de l'installer dans un ordinateur dont le processeur était cadencé à au moins 1.5 GHz et d'utiliser les bons pilotes vidéos (drivers), "Flight Simulator 2002" fonctionnait correctement (rappelons qu'à la même époque, la majorité des cartes graphiques présentaient un score benchmark inférieur à 10 comme la Nvidia FX 5500, un modèle d'entrée de gamme sorti en 2003). Puis la technologie progressa rapidement.

En 2005, la carte NVIDIA GeForce 7800 GTX équipée de 512 MB de mémoire présentée ci-dessus affichait un fill rate de 8.8 Gpixels/s et sa bande passante était de 54.4 GB/s. Son score benmarch est de 228. A cette époque, le processeur graphique était encore mono-coeur, sans CUDA et sans mémoire unifiée (mémoire CPU/GPU), mais c'était l'un des processeurs les plus complexes, un G70 de 64 bits cadencé à 450 MHz comprenant 302 millions de transistors.

Loi de Moore oblige, en 2012 NVIDIA mis au point l'architecture Kepler exploitant des processeurs graphiques multi-coeurs et le parallélisme dynamique. Grâce à cette conception, les performances des cartes graphiques par watt de puissance ont été doublées par rapport à l'architecture Fermi précédente !

En même temps, pour améliorer les performances et notamment la fluidité des images, les ingénieurs ont choisi de modifier la fréquence du GPU non plus en fonction de la consommation maximale qui reste un facteur limitatif, mais d'un plafond thermique fixé à 80°C. Cela permet de booster les performances dès que c'est possible; c'est la technologie Nvidia GPU Boost 2.0 exploitée notamment par les cartes GTX série 7 et GTX TITAN.

Carte graphique NVidia GeForce GTX 780 Ti Amp! Edition

Ainsi, la carte GeForce GTX 780 Ti Amp! Edition de Zotac sortie en 2013 est 16 fois plus rapide que la carte Radéon 9700. Elle affiche un fill rate de 42 Gpixels/s et une bande passante mémoire de 336 GB/s ! Son score benchmark est de 8658. Pour parvenir à cette performance, le chipset de cette carte (dont voici une photo et un diagramme simplifié) est fabriqué à partir d'un morceau de semiconducteur au silicium ou die de 561 mm2. Il contient 7.08 milliards de transistors ! Occupant un double slot sur la carte-mère, cette carte graphique contient 2880 coeurs de processeurs (CUDA) et 15 SMX (unités de calcul) fonctionnant en parallélisme dynamique, avec une cadence de base de 1006 MHz et de 3 GB à 12 GB de mémoire GDDR5 cadencée à 7800 MHz reliée à un bus de 384 bits. L'année de sa sortie, cette carte haut de gamme était proposée à environ 650 €, ce qui est beaucoup moins cher que d'autres modèles mais c'est tout de même dix fois le prix d'une carte graphique d'entrée de gamme.

Comme toutes les cartes graphiques accélératrices haut de gamme, leur consommation d'énergie est aussi en rapport avec leur performances. Ainsi, la carte NVidia GeForce GTX TITAN Z présentée ci-dessous à droite conçue en architecture Kepler dispose d'un processeur graphique GK110-430-B1 variant contenant 7.08 milliards de transistors. Cette carte graphique présente un score benchmark de 7753 apte à faire tourner des applications de postproduction vidéo. Elle est cent fois plus rapide qu'un modèle d'entrée de gamme.

Proposée en 2014 à près de 3000 € (et pratiquement plus disponible en 2017 car "obsolète"), la GTX TITAN Z occupe 3 slots et consomme 375 W (contre 170 W pour carte moitié moins rapide). Elle requiert une alimentation d'au moins 700 W soit plus du double d'un petit ordinateur de bureau ou un portatif et rayonne tellement de chaleur qu'elle peut augmenter la température ambiante d'une chambre ou d'un studio de plusieurs degrés ! Avantage, le geek ne doit plus chauffer sa chambre en hiver ! En revanche, sa facture d'électricité s'en ressentira...

Carte Nvidia GTX TITAN Xp (2017, Pascal, score 13900)

Carte Nvidia GTX TITAN Z (2014, Kepler, score 7753)

Mais on fit encore mieux. L'avant-dernière génération de cartes graphique a explosé les compteurs avec un score benchmark de 13900 pour la Nvidia TITAN Xp en architecture Pascal ! Ainsi, en 10 ans les performances des cartes graphiques ont été multipliées par 1000 et par 2000 en 15 ans ! On sera surpris du score qu'atteindra la prochaine génération de cartes Nvidia en architecture Volta... 

Les exigences graphiques

Aujourd'hui les scientifiques et les ingénieurs des départements R&D des majors de l'industrie placent  les exigences graphiques si haut que l'architecture GCN1 d'ATi ou la Kepler de NVidia a rapidement été dépassée alors que la majorité du public en est toujours à utiliser des technologies remontant à 5 ou 10 ans voire plus anciennes, c'est-à-dire "vieilles" de 5 à 10 générations, tout simplement parce que leur prix est très accessible (50 à 100 € pour une carte graphique peu rapide adaptée aux travaux bureautiques et le visionnage de vidéos sur Internet).

En 2013, nous étions à la ... 13e génération des cartes ATI Radéon (par ex. ATI Radéon R9-270X en architecture GCN1) puis le constructeur développa deux nouvelles générations pour aboutir à la carte AMD Radéon de la série Rx 400 commercialisée fin 2016. Son concurrent Nvidia en était à la... 22e génération avec l'architecture Kepler. Puis en 2014, Nvidia commercialisa les cartes graphiques de la série GTX 900 en architecture Maxwell à mémoire virtuelle unifiée (cf. la carte Nvidia GeForce GTX 980) qui est deux fois plus performante que la Kepler. Mais elle-même fut dépassée en 2016 par l'architecture Pascal supportant la mémoire 3D (par ex. la GP100 comprenant 17 milliards de transistors et d’un bus HBM de 4096 bits) qui fut elle-même dépassée un an plus tard par l'architecture Volta à mémoire empilée (DRAM stacking), ce qui nous conduit à la 25e génération dont le premier modèle, la GV100 est annoncé pour 2018.

Notons comme l'indique cet article de l'ORNL que le département américain de l'Energie (DOE) est d'ailleurs preneur des cartes Nvidia Volta pour ses superordinateurs HPC dont le SUMMIT basé sur la plate-forme OpenPower équipée de processeurs IBM Power9. Il sera ainsi 5 fois plus performant que l'ancien système TITAN alors que ce dernier est équipé de 5 fois plus de cartes GPU mais en architecture Kepler !

Logiciels à télécharger : TechPowerUp - Performance Test - HWMonitor (CPUID)

Tests de performance et paramètres du disque dur, CPU et carte graphique

Les données traitées massivement en parallèle nécessitent non seulement des bus de données plus larges mais aussi plus de mémoire vidéo. C'est pourquoi la plupart des cartes graphiques de dernière génération (accélératrices) disposent aujourd'hui de bus de 192 bits ou 384 bits et de 2 GB à plus de 10 GB de mémoire GDDR5, leur permettant de traiter en temps réel les textures 3D et en haute définition les plus complexes de manière fluide, notamment dans les simulations 3D, les jeux, les logiciels de CAO et de postproduction vidéo qui font parfois appel au ray-tracing, une fonction qui sollicite beaucoup les coeurs de processeurs graphiques.

Dans le domaine de l'animation 3D et des jeux, les performances d'une carte graphique sont également définies par son débit exprimé en images ou frames par seconde (fps). Généralement, on utilise un simulateur de vol tel que la dernière version de "Flight Simulator" pour apprécier ses performances. On peut également le vérifier avec un jeu de dernière génération. En effet, mieux qu'un film ou une vidéo qui se satisfait de 25 images/seconde, un simulateur de vol ou un jeu vidéo réaliste doit afficher une cadence très élevée pour être visionné en haute définition et sans saccade.

Le problème est que l'affichage d'un objet graphique animé en 3D et en haute définition requiert plus de calculs qu'un objet 2D. Si on veut afficher des jeux vidéos de dernière génération de manière fluide, les images doivent s'afficher en temps réel avec un débit d'au moins 25 fps. En 2000, le Flight Simulator atteignait déjà 30 fps.

Aujourd'hui, le standard des simulateurs de vol et des jeux vidéos est de 60 fps. Cela veut dire que d'une image à l'autre, le système n'a que 1/60e de seconde soit 16.6 ms pour calculer toute l'image, y compris les textures, les faces cachées et les ombres, contre 33.3 ms à 30 fps. La carte graphique Nvidia GeForce GTX 780 offre un débit dépassant 91 fps.

L'obsolescence du matériel et de l'OS

L'utilisation d'une carte graphique de dernière génération requiert un ordinateur à niveau, c'est-à-dire capable d'exploiter sa technologie à 100 %, notamment ses milliers de coeurs de processeurs et le haut débit offert par son interface.

En l'espace de 10 ans, non seulement les performances des cartes graphiques ont progressé exponentiellement mais sur la même période, leur prix a été divisé par dix. On comprend donc aisément qu'une personne utilisant un logiciel graphique récent ou créant des animations 3D n'achètera pas un ordinateur équipé d'une carte de première ni même de deuxième génération vieille de 5 ou 10 ans car elle n'est tout simplement plus adaptée au traitement des objets 3D et texturés en haute définition.

Un dessin 3D affichant des textures simples comme le propose Photoshop CS6 ou CC par exemple exige une carte classique et bon marché (50 €) supportant au moins l'OpenGL v2.0 comme on en trouve dans les systèmes OEM. Mais une carte d'une génération trop ancienne (par ex. une Nvidia GT 230 de 2008, score benchmark de 477) sera si peu performante que ce logiciel devra désactiver certaines options 3D faute de ressources. Pour un prix similaire, le minimum esr d'utiliser une carte NVidia GT 630 de 2012 (score benchmark de 795). Mais une nouvelle fois, ce système est sous-dimensionné par rapport aux performances potentielles de l'application.

A voir : How to Optimize After Effects CS6 for High Performance, Adobe

Pour des configurations matérielles et logicielles identiques, les performances d'une carte graphique accélératrice varie selon les fonctions utilisées dans les différents logiciels graphiques, jeux compris, mais également de l'optimisation du paramétrage du logiciel. Pour Adobe After Effects par exemple, même si ce n'est pas le plus exigeant en performance GPU, il est important que la carte accélère toutes les prévisualisations. Pour cela il vaut vérifier ci-dessus les paramètres concernant l'OpenGL (la librairie du dessin vectoriel 2D et 3D), l'utilisation des CPU, le partage de la mémoire avec les autres applications et le multiprocesssing. Ci-dessous, si la carte le supporte, vérifiez également qu'elle exploite l'architecture en parallèle des CUDA qui permettent de décupler la vitesse des calculs des textures notamment. Si l'ordinateur dispose de suffisamment d'espace disque, on peut aussi augmenter la taille du cache disque de 2 GB à 20 GB (si possible celui d'un disque SSD ou celui d'une partition différente de celle de démarrage).

Quant aux logiciels de postproduction vidéos et d'animations 3D (Cinema 4D, After Effects, etc.) ainsi que les applications clientes de BOINC exploitant les GPU, leur requisit dépend de la programmation mais la plupart exigent un système d'exploitation 64 bits, un CPU au moins dual-core et au minimum une carte graphique multi-coeurs avec 2 ou 3 GB de VRAM mais dont le prix augmente proportionnellement à ses performances. Ainsi, une carte Nvidia GTX 680 (score benchmark de 5717) est 7 fois plus performante que la NVidia GT 630 mais également 6 fois plus cher (~300 €) et exige une alimentation d'au moins 600 W. Ceci dit, ses performances sont encore loin derrière celles des cartes des générations plus récentes mais bien entendu encore plus chers (par ex. une NVidia GTX 780 Ti de 2013, score benchmark de 8978, ~450 €) ou une GTX 980 Ti de 2015, score benchmark de 11583, ~850 €).

Se greffe sur ces spécifications, la génération du bus d'extension (par ex. PCI-Express) de l'ordinateur qui doit être identique à celle de la carte graphique ainsi que certains accessoires qui doivent être correctement dimensionnés. En effet, en installant une carte d'une génération récente (2 à 3 ans) dans un ordinateur fabriqué il y a 5 ou 10 ans, on gaspille sensiblement l'avantage offert par la nouvelle carte. De plus, cette carte sera probablement plus puissante et exigera une alimentation ATX de 600 ou 700 W alors qu'un ordinateur d'entrée ou de milieu de gamme dispose généralement d'une alimentation de 300 W. Si la carte graphique est très récente et le PC âgé et compact, il est même propable que la mise à niveau soit impossible (pas d'alimentation plus puissante, pas de slot disponible, pas de carte-mère capable de supporter un processeur plus récent ni de nouvelles barrettes de mémoire).

Dans de telles conditions, il est préférable de remplacer le PC (et peut-être son OS) par un modèle plus récent plutôt que d'essayer de combiner l'ancienne et la nouvelle technologie sans tirer tout le bénéfice de cette dernière.

Gestion de la température des processeurs

A part le prix (et le bruit des ventilateurs des ordinateurs OEM ou bas de gamme), un autre inconvénient de cette technologie de pointe est que plus l'électronique est rapide, plus les électrons se déplacent rapidement et plus ils dissipent de chaleur.

Ainsi, si au repos la température d'un processeur graphique varie généralement entre 30°C et 45°C, lorsqu'il est sollicité, notamment pour des animations en 3D, sa température peut doubler et dépasser 100°C sur certaines modèles ! A titre d'exemple, en pleine activité la température du GPU G92 d'une carte NVidia GT 230 (score benchmark de 477) atteint 62°C mais elle atteint 82°C pour le GPU KG104 d'une carte Nvidia GTX 670 dix fois plus performante (score benchmark de 5374). La température maximale est de 107°C selon un benmarch réalisé avec HWMonitor pour le GPU GF100-375 de la carte Nvidia GTX 480 (score benchmark de 4853) ! A titre de comparaison, le processeur Polaris d'Intel (2007) peut atteindre 120°C !

Elaborer un processeur tirant avantage d'une architecture sur 256 bits présente aujourd'hui un défi technologique majeur. D'une part, il présente un problème d'architecture et de surface sur lesquels se penchent actuellement Intel et ses concurrents. D'autre part, trop de chaleur réduit sa durée de vie : on considère habituellement que toute augmentation de 10°C de la température d'un composant à semi-conducteur réduit l'intervalle entre deux pannes de moitié (MTBF), autrement dit il tombera en panne deux fois plus vite.

Rayonnement thermique d'un processeur. Si au repos sa température varie entre 30°C et 45°C selon les modèles, en pleine activité un GPU rapide peut atteindre 75°C à 85°C et exceptionnellement 107°C (GPU GF100 de la carte Nvidia GTX 480) ! Document Sierra Pacific Corp.

C'est pourquoi on installe des radiateurs sur les processeurs ainsi que des ventilateurs, y compris sur l'alimentation de l'ordinateur pour extraire l'excédant de chaleur. Il ne s'agit pas de simples accessoires; ils sont obligatoires et doivent rester opérationnels si vous désirez que votre système fonctionne dans de bonnes conditions.

Ainsi, la carte graphique NVidia GeForce GTX 780 Ti Amp! Edition est ventilée par deux grands radiateurs en aluminium traversé par 5 caloducs en cuivre, le tout surmonté de 3 ventilateurs, limitant la température du système à 73°C. Autrement dit, l'air chaud expulsée par le ventilateur peut chauffer un petit local ! Si vous utilisez ces cartes en batterie, mieux vaut équiper le local d'air conditionné.

En absence de ventilateur sur le processeur et sur celui de la carte graphique, un ordinateur allumé va rapidement s'arrêter de fonctionner.

En effet, le courant circulant dans un processeur est canalisé. Sans extracteur de chaleur, celle-ci ne pourra pas dissiper. En quelques secondes la température du processeur va atteindre 100°C, 150°C puis 180°C et se mettre à fumer... Le CPU sera détruit. Au vu de cet exemple on comprend mieux pourquoi certains systèmes, et pas uniquement les mainframes, sont refroidis par eau ou par huile.

Enfin, un processeur très rapide peut présenter un problème d'hyperfréquence : plus les bus (canaux de transfert) sont larges plus le débit est susceptible de générer des ondes parasites; le processeur se met à bourdonner, sans parler du bruit déjà engendré par le ou les ventilateurs... Voilà quelques uns des défis que doivent résoudre les ingénieurs préparant les ordinateurs de demain.

Nous verrons qu'en pratique, si une carte graphique est capable de gérer un espace chromatique très étendu, il est partiellement inaccessible aux périphériques d'entrée-sortie autre que l'écran, aucun d'eux ne pouvant à ce jour restituer la totalité de l'espace colorimétrique d'un moniteur haut de gamme.

Cela nous conduira à examiner de quelles manières les chercheurs ont représenté la gamme des couleurs sur le plan théorique et ont appliqué leurs modèles à la reproduction des couleurs sur ordinateur et d'autres supports. Ce sera l'objet de l'article consacré à la gestion des couleurs sur ordinateur, un sujet qui intéressa principalement les photographes et les infographistes.

Pour plus d'informations

Articles

La gestion des couleurs sur ordinateur (sur ce site)

La vision des couleurs (sur ce site)

The rendering time in Terragen (sur ce site)

Guide d'achat des cartes graphiques, Les Numériques, 2016

Comparatif cartes graphiques, Tom's hardware

Videocard benchmark

Le Der des Der : comparatif CRT, Hardware.fr, Mars 2006

L'influence de l'électronique sur les couleurs des LCD, Hardware.fr, Jan. 2006

Multimission Image Processing Laboratory, NASA/JPL

Rendering spectra, Andrew T.Young

What Color is it ?, Andrew T.Young

Some paradoxes, errors, and resolutions about human vision, D.Lynch et al. (PDF de 127 KB)

Généralités, gamuts, revues de produit

Cours d'informatique, 802 cours proposés par Open Classrooms

Commission Internationale de l'Éclairage (CIE)

Color & Vision, Institute of Ophthalmology, UCL

European Color Initiative (ECI)

Interactive Color Gamut Comparisons, Dry Creek Photo

Calculette CIE et Equations de conversions colorimétriques, Bruce Lindbloom.

Chromaticity (Simulateur de gamuts)

Power Retouche (plugin Photoshop)

Hardware.fr

M@t.be

Clubic

Let's go Digital PMA

Sur le format HDR

HDRShop (logiciel, dont version 1 gratuite)

HDR Efex Pro

Photomatix

Bit-Tech

Démos de textures HDR

OpenEXR

DxO Optics Pro

How To create HDR photographs (sur Gizmodo)

RAW HDR Processing, Andre Gunther

Paul Debevec ITC Graphic Lab

The Future of Digital Imaging - HDR Photography

High Dynamic Range Imaging, P.Debevec et al., Morgan Kaufmann Publishers, 2005 (Amazon)

A lire : La gestion des couleurs sur ordinateur

Retour aux Rapports techniques

Page 1 - 2 - 3 - 4 - 5 -


Back to:

HOME

Copyright & FAQ