16 bits ou 24 bits ?

Démarré par ULTRA62, Octobre 19, 2012, 10:59:16

« précédent - suivant »

ULTRA62

Bonjour à tous,

Selon la sonde de calibration choisie, la configuration requise pour la carte vidéo est différente. Ainsi la Color Munki demande une carte vidéo de 16 bits, la Spyder 4 demande une carte de 24 bits.
Je possède une carte NVDIA Geforce 7600 GT et la configuration de la carte indique 128 bits ! Rien à voir avec les 16 bits ou 24 bits exigés.
Comment trouver le nombre de bits de sa carte vidéo ?
Merci pour vos réponses.

remyphoto75

Ce sont les spécifications minimales.
Dans le cas de la colormunki ils doivent parler de l'affichage minimal prix en charge 1024x768 avec palette de couleur 16 bits (mais bon ne t'inquietes pas cela fait bien longtemps que nous utilisons tous au moins des résolutions supérieures avec une palette de couleurs 32 bits).
Et pour la Spyder 4 ils doivent parler d'une carte avec sortie 3x8bits ce qui correspond à toutes les cartes graphiques (excepté les gammes pro type firepro, quadro, tesla et compagnie qui sont en 3x10 bits)

Donc tout ça pour dire que tu n'as pas soucis à te faire.

Nexus584

Pour préciser : 16bits = 65535 de couleurs
                     24 bits = 16.8 millions de couleurs
                     32 bits = 16.8 millions de couleurs (le piège!!! car les 8 bits supplémentaires par rapport au mode 24 ne sont là que pour la prise en charge de la transparence )

Les 128 bits dont tu parles pour ta CG n'ont rien à voir avec lers couleurs, c'est simplement la largeur du bus de données entre la mémoire de ta CG et son gpu.

En conclusion : ta CG est correcte et gère bien le mode 32 bits couleurs, ce qui est la norme aujourd'hui pour le matériel grand public.