Forum Chasseur d'Images - www.chassimages.com

[ FORUM HARD, SOFT & MICRO Photo ] => Espace Ecrans, Moniteurs & Etalonnage => Discussion démarrée par: Will95 le Février 12, 2011, 14:45:43

Titre: Ecran 16bits, quel choix ?
Posté par: Will95 le Février 12, 2011, 14:45:43
Je regarde l'offre en écran avec dalle 16bits, je ne trouve que du 24" et 30" chez Eizo, et les 24 et 26" de chez Quato.

Nec visiblement n'en fait pas ...

En connaissez-vous d'autre ?

Sinon le Quato 262 me plait bien, performance identique à Eizo, moins cher/plus grand. Seul regret : du 26" en 1920 x 1200 ... Le CG245W d'Eizo est excellent, mais j'aurais voulu un peu plus grand, et le 30" est hors budget.
Titre: Re : Ecran 16bits, quel choix ?
Posté par: canonbeber le Février 12, 2011, 15:06:41
LaCie 526 ?
Titre: Re : Ecran 16bits, quel choix ?
Posté par: canonbeber le Février 12, 2011, 15:27:32
Citation de: Will95 le Février 12, 2011, 14:45:43
Nec visiblement n'en fait pas ...

Nec spectra view 27"
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Will95 le Février 12, 2011, 16:33:05
Citation de: canonbeber le Février 12, 2011, 15:27:32
Nec spectra view 27"


Si c'est le Spectraview 271, il n'est pas 16bits, mais 10bits
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Will95 le Février 12, 2011, 16:35:48
Citation de: canonbeber le Février 12, 2011, 15:06:41
LaCie 526 ?

C'est aussi un 1920 x 1200, quand a l'ecran ils disent 12bits LUT avec précision de calcul 16-bit, je ne saispas si c'est pareil que Eizo
Titre: Re : Ecran 16bits, quel choix ?
Posté par: SimCI le Février 12, 2011, 17:40:55
Cinemage ?

http://cinetal.com/products/cinemage.asp

http://cinetal.com/products/PDF/bseriesinfo.pdf
Titre: Re : Ecran 16bits, quel choix ?
Posté par: canonbeber le Février 12, 2011, 17:59:52
Nec PA 241
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Février 14, 2011, 11:06:45
Citation de: canonbeber le Février 12, 2011, 17:59:52
Nec PA 241

Tu es sûr ?
Titre: Re : Ecran 16bits, quel choix ?
Posté par: GRAPHICRESEAU le Février 15, 2011, 14:40:28
Bonjour.

Eizo et Nec proposent des dalles en 10bits, Lut en 12bits sur les séries SX et CG chez EIZO (14bits en Nec PA et SpectraView) et calcul interne en 16bits.
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Février 15, 2011, 18:49:41
Citation de: GRAPHICRESEAU le Février 15, 2011, 14:40:28
Eizo et Nec proposent des dalles en 10bits [...]

Il me semblait bien, aussi...
Titre: Re : Re : Re : Ecran 16bits, quel choix ?
Posté par: MarcF44 le Février 15, 2011, 21:30:53
Citation de: Verso92 le Février 15, 2011, 18:49:41
Il me semblait bien, aussi...
Et c'est déjà énorme...ma dalle de portable doit être en 6 bits...
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Will95 le Février 15, 2011, 22:33:17
Citation de: GRAPHICRESEAU le Février 15, 2011, 14:40:28
Bonjour.

Eizo et Nec proposent des dalles en 10bits, Lut en 12bits sur les séries SX et CG chez EIZO (14bits en Nec PA et SpectraView) et calcul interne en 16bits.

Merci pour cette précision  :)
Titre: Re : Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juin 25, 2011, 19:19:34
Citation de: Sansame le Juin 25, 2011, 17:46:37
Pourriez vous préciser ces informations intéressantes :

- Qu'entendez vous par "dalle en 10 bits" ?

La dalle permet de retranscrire des informations codées sur 3 x 10 bits (à condition que le reste suive, bien sûr, ce qui n'a rien d'évident) au lieu des 3 x 8 bits habituels.
Citation de: Sansame le Juin 25, 2011, 17:46:37
- La LUT en 12 bits ne concernerait-elle pas que la série CG chez EIZO, dite à calibrage matériel ? Sinon, de quelle LUT s'agit-il sur la série SX ?

La LUT de l'écran...
Citation de: Sansame le Juin 25, 2011, 17:46:37
- De quel type de calcul interne parlez vous en disant qu'il sont sur 16 bits ?

En numérique, les calculs sont la plupart du temps faits sur une largeur de bits plus importante pour minimiser les erreurs d'arrondis et de troncature (quand la mémoire le permet, bien sûr).
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juin 25, 2011, 20:47:11
Citation de: Sansame le Juin 25, 2011, 20:43:56
En fait, je ne comprenais pas bien ce que GraphicRéseau nomme ici « dalle ». C'est donc finalement non pas un sous-ensemble de l'écran (la dalle proprement dite) mais l'appareil dans son ensemble. Quand donc  GraphicRéseau dit « dalle en 10 bits », il veut dire simplement « écran acceptant en entrée des nombres RGB définis sur 10 bits".

En fait, je pense qu'on parle bien de la dalle elle-même qui travaille en 10 bits. Bien sûr, l'électronique de l'écran doit être capable de lui fournir les infos sur 10 bits (au moins)...
Citation de: Sansame le Juin 25, 2011, 20:43:56
Je me demande alors si ces 30 bits sont disposés dans un mot de 32 bits (auquel cas les données sont à cheval sur deux octets consécutifs ce qui provoque des traitements assez lourds) ou sont, bêtement, sur 48 bits avec une composante par paire d'octets. GraphicRéseau peut il nous le dire ?

Les ordinateurs et l'électronique de l'écran ne manipulent pas forcément des octets...
Citation de: Sansame le Juin 25, 2011, 20:43:56
Oui, mais il me semblait que les Eizo possédant une LUT interne étaient les modèles dits « à calibrage matériel » c'est à dire les CG. Or GraphicRéseau évoquait une LUT également pour les modèles SX... d'où ma question.

Je pense que tous les écrans doivent par principe posséder des LUT. Ceux à "calibrage matériel" sont ceux qui permettent à l'utilisateur de venir y écrire des données liées à l'étalonnage...
Citation de: Sansame le Juin 25, 2011, 20:43:56
Je suis bien d'accord, mais je voulais savoir quelle était la nature de ces calculs. J'imagine qu'il y a par exemple l'application des corrections gamma stockées dans la LUT interne (si l'écran en a une). Mais je pense qu'il y en a bien d'autres, assez mystérieux pour moi. Il y a par exemple, peut-être, des calculs destinés à uniformiser le comportement de la dalle en tous ses points, des calculs induits par le paramétrage de l'écran par l'utilisateur. Je suppose en particulier que le choix d'une valeur de température de couleur de blanc dans le menu Eizo provoque des calculs d'affichage...

Il s'agit bien de ce genre de calculs. Mais je ne saurais t'en dire plus...
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: David D le Juin 26, 2011, 17:01:27
Citation de: GRAPHICRESEAU le Février 15, 2011, 14:40:28
Bonjour.

Eizo et Nec proposent des dalles en 10bits, Lut en 12bits sur les séries SX et CG chez EIZO (14bits en Nec PA et SpectraView) et calcul interne en 16bits.

Bonjour,

Calcul en 16 bit signifi simplement que les valeurs sont inscritent sur deux octets ou bien qu'elles sont convertient dans un espace 16 bit intermédiaire le temps du calcul ?

Je me pose aussi des questions vis a vis des lut qui ont une dynamique plus importante que la dalle qu'elles commandent. Les valeur qui sortent de la lut sont directement injectés dans la dalle. Les point blanc et noir de la lut sont ils alignés sur les valeurs de tensions maximale et minimale admise par la dalle avant "saturation" ?  La Lut est elle simplement surquantifié ou bien va t'elle au dela de la dynamique admise par la dalle ?

J'espère que mes questions restent compréhensible  :)  Merci de m'éclairer  ;)
Titre: Re : Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juin 26, 2011, 17:31:34
Citation de: David D le Juin 26, 2011, 17:01:27
Calcul en 16 bit signifi simplement que les valeurs sont inscritent sur deux octets ou bien qu'elles sont convertient dans un espace 16 bit intermédiaire le temps du calcul ?

Calcul sur 16 bits signifie simplement calcul sur 16 bits. Ni plus, ni moins.

Quand tu fais des opérations sur douze bits, par exemple, il convient toujours de le faire sur une largeur supérieure si tu veux limiter les erreurs d'arrondis et de troncature (c'est toujours le cas en traitement numérique du signal...).
Titre: Re : Ecran 16bits, quel choix ?
Posté par: David D le Juin 26, 2011, 19:39:53
Désolé mais je ne saisi toujours pas  :)

Prenont un exemple simple en fesant abstraction de pas mal de chose.

J'ai une valeur codé sur 12 bit qui sort d'un apn.
J'ai une table LUT Classique composé de corespondance pour 2 puisance 14 valeurs (14 bit).
J'ai une dalle dont les propriété phisique permettent de reproduire 2 puissance 10 valeurs pour chaque canal RVB.

On va prendre la valeur 2048 qui est la valeur "médiane" d'une dynamique 12 bit.
La valeur est transposé dans un espace 16 bit. Elle s'apelle désormé 32768 (2^16/2) et je l'enregistre sur deux octet dans un fichier tiff
De la, elle se retransforme pour devenir 16384 (2^14/2)
La Lut fait son travail et trouve une corespondance à 16384. On va dire 16500
La valeur de sortie (16500) retourne dans un espace 16 bit et devient (au alentour de) 34000
Cette valeur 34000 est associé a une tension injecté dans la dalle
Sachant qu'au final, les propriétés de la dalle font qu on aura au max 2^10 valeurs par canal possible en sortie.

Est ce que je suis loin de la vérité ? Peut tu coriger ce raisonnement ?

Merci !  :)
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juin 26, 2011, 20:04:42
Citation de: David D le Juin 26, 2011, 19:39:53
Désolé mais je ne saisi toujours pas  :)

Prenont un exemple simple en fesant abstraction de pas mal de chose.

J'ai une valeur codé sur 12 bit qui sort d'un apn.
J'ai une table LUT Classique composé de corespondance pour 2 puisance 14 valeurs (14 bit).
J'ai une dalle dont les propriété phisique permettent de reproduire 2 puissance 10 valeurs pour chaque canal RVB.

On va prendre la valeur 2048 qui est la valeur "médiane" d'une dynamique 12 bit.
La valeur est transposé dans un espace 16 bit. Elle s'apelle désormé 32768 (2^16/2) et je l'enregistre sur deux octet dans un fichier tiff
De la, elle se retransforme pour devenir 16384 (2^14/2)
La Lut fait son travail et trouve une corespondance à 16384. On va dire 16500
La valeur de sortie (16500) retourne dans un espace 16 bit et devient (au alentour de) 34000
Cette valeur 34000 est associé a une tension injecté dans la dalle
Sachant qu'au final, les propriétés de la dalle font qu on aura au max 2^10 valeurs par canal possible en sortie.

Est ce que je suis loin de la vérité ? Peut tu coriger ce raisonnement ?

Merci !  :)

Il n'y a pas d'erreur de raisonnement à proprement parler, mais je crains que tu n'aies pas compris quelles sont les données qui sont manipulées derrière tout ça.

Déjà, il faut voir que la carte graphique transmettra à l'écran une image codée sur 3 x 10 bits dans le meilleur des cas (bien souvent, ce sera 3 x 8 bits). Ensuite, il va y avoir beaucoup de calculs sur les données de type bitmap de l'image avant qu'elles ne soient affichées sur l'écran. Je ne connais pas suffisamment le sujet pour t'en expliquer d'avantage, mais la LUT de l'écran va intervenir en fonction d'un certain nombre de grandeurs comme le gamut de l'écran, etc. Il est en tout cas illusoire de penser que ce sont les données bitmap de l'image qui vont directement adresser la matrice de l'écran...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: David D le Juin 26, 2011, 20:46:41
J'imagine que le procédé est bien plus complexe.
Les données sont manipulés mais le résultat est tjrs fonction de la valeur bitmap de base. Sinon on aurait de la bouillie en visu.

Ce qui m'interesse c'est plus le travail effectué par l'écran et sa manière de faire.

De quel type de donnée parles tu ?
Les valeurs RVB (bitmap) du fichier sont convertis par le cmm dans l'espace lab. Après je ne sais pas trop ce qui se passe. J'imagine qu'ils sont reconverti dans un espace rvb de type "écran" qui dépend du profil couleur de celui ci (les tables donc). Les données passe par la carte graphique qui peut aussi apliquer des modifications avec une table vcgt par exemple (tout dépend de la config). La valeur arrive enfin dans l'écran ou elle est encore triturée par des courbes dépendant des réglages internes.

Après tout dépend de la méthode de réglage. Calibration soft ou hard.

J'aimerai juste comprendre les chiffre présenté par les constructeur et les enjeux qu'il y a derrière en terme de qualité de rendu.

Entre la LUT de l'écran , la méthode de calcul , la lut de la carte graphique , les capacités physique de la dalle ...  Ca fait beaucoup de chose à considérer. J'aimerai bien comprendre le circuit dans le détail.

:)
Titre: Re : Re : Re : Ecran 16bits, quel choix ?
Posté par: fantec le Juin 26, 2011, 22:01:29
Citation de: Verso92 le Juin 26, 2011, 20:04:42Déjà, il faut voir que la carte graphique transmettra à l'écran une image codée sur 3 x 10 bits dans le meilleur des cas (bien souvent, ce sera 3 x 8 bits).
Cela dépend de la connectivité (DVI ou display-port) et de la résolution. Sur le display-port, les composantes peuvent être transmis sur 6, 8, 10, 12 ou 16 bits tant que l'on reste en deça du débit max (pour un 30", la limite sera à 10 bits par composante pour du 2560x1600 à 60 Hz). Sur le DVI, un mode permet d'envoyer 8 bits sur le second lien (dual-DVI) mais cela implique que la résolution ne dépasse pas les 1920x1080 (sur un 30" à 60 Hz, c'est soit du 2560x1600 en 24 bits, soit du 1920x1080 en 48 bits).
Titre: Re : Re : Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juin 26, 2011, 23:41:00
Citation de: fantec le Juin 26, 2011, 22:01:29
Cela dépend de la connectivité (DVI ou display-port) et de la résolution. Sur le display-port, les composantes peuvent être transmis sur 6, 8, 10, 12 ou 16 bits tant que l'on reste en deça du débit max (pour un 30", la limite sera à 10 bits par composante pour du 2560x1600 à 60 Hz). Sur le DVI, un mode permet d'envoyer 8 bits sur le second lien (dual-DVI) mais cela implique que la résolution ne dépasse pas les 1920x1080 (sur un 30" à 60 Hz, c'est soit du 2560x1600 en 24 bits, soit du 1920x1080 en 48 bits).

Pas seulement : il faut que le pilote de la carte graphique le permette, que le logiciel le supporte, et que l'OS soit Seven pour ceux qui sont sur PC, etc...
Citation de: David D le Juin 26, 2011, 20:46:41
Entre la LUT de l'écran , la méthode de calcul , la lut de la carte graphique , les capacités physique de la dalle ...  Ca fait beaucoup de chose à considérer. J'aimerai bien comprendre le circuit dans le détail.

Là, je serais bien incapable de t'aider...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: gibrocksonne le Juillet 05, 2011, 19:31:37
CitationJe me demande alors si ces 30 bits sont disposés dans un mot de 32 bits (auquel cas les données sont à cheval sur deux octets consécutifs ce qui provoque des traitements assez lourds) ou sont, bêtement, sur 48 bits avec une composante par paire d'octets. GraphicRéseau peut il nous le dire ?
T'en fais pas, tous ces calculs sont faits par un ASIC dont l'unité de calcul est certainement sur 30 bits.

CitationJ'ai une valeur codé sur 12 bit qui sort d'un apn.
J'ai une table LUT Classique composé de corespondance pour 2 puisance 14 valeurs (14 bit).
J'ai une dalle dont les propriété phisique permettent de reproduire 2 puissance 10 valeurs pour chaque canal RVB.
Les 12 bits de l'APN devraient être décalés de 2 bits à gauche (x4) avant de rentrer dans la lut, les 2 LSB de la LUT étant à 0.
Entre la sortie de la LUT et la dalle, on a 14bits vers 10bits, les 4 LSB sont tronqués pour ne faire plus que 10 bits.

D'une manière générale les bits supplémentaires servent à réduire les erreurs de calculs dans les étapes intermédiaires.
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 14, 2011, 04:10:10


Bcp de mélanges ...  :D

Les LUT des écrans sont dans le meilleurs des cas sur une grande quantification, c'est pour faire des compensations savantes dans la dalle de l'écran avec sa propre carte graphique interne. Ces LUT ne sont pas atteignables par nous, sauf dans le cas du pilotage dit Hardawe où les sondes attaquent directement cette LUT. Infos sonde de qualité, pour calculer les compromis et glissements de chroma, les ingénieurs se servent donc d'une quanti gigantesque. Un peu à la manière des espaces de travail caché dans les logiciels pro au dématricage, avec un Prophoto sur 16bits, ou simplement avec votre flux de travail quand vous travaillez en 16b, vos manip permettent de triturer gamma et constraste etc sans pertes. C'est le mm principe pour faire tres tres tres court ! :)
Attention ce ne sont pas des travaux en flux, mais des calculs basiques, pas recalculés pour faire simples.
Donc pas de quanti lourde qui planterait ou ralentirait.
Rien à voir avec les flux directs des CG actives.

Pour les envois d'informations externes cette fois ci, les 10bits sont donc la valeurs des infos pour nourrir votre vision ... l'écran revendique de pouvoir afficher ces finesses ... mais ici on se heurte à un gros probleme que les cartes graphiques modernes n'adressent du 10b réel que dans tres peu de cas. Et savoir lequel ... Et tres souvent uniquement dans la chaine de prod Broadcast.
On a des CG qui émettent du 10b depuis pas mal de temps en version grand public, par exemple avec les Matrox, mais cette fonction (ancienne) est uniquement une quanti refaite à partir de 8b du ramdac de la carte .. et aussi ce sont souvent les sorties analogiques seules qui ont longtemps bénéficié de ces valeurs, le calcul se faisant en numérique 10b pour ensuite produire une fréquence analogique de qualité, toujours sur systemes Broadcast ( cinéma pro etc ) et sur écran analogiques.
C'est utile aussi pour nourrir toute la post prod en broadcast, et pas pour se faire plaisir aux yeux, comme l'est la réclame pour nos écrans.
Dans la chaine pro en flux tendu, tout comme en photo dans PS en 16b, ils ont besoin de travailler avec des valeurs supérieures aux 256 des 8b, laquelle est castratrice.

Ainsi, quand pour nous on invoque, en systeme fixe, d'avoir un apport pour la vision seule, c'est un peu un contre sens. On travaille déjà en 16b dans nos log. On ne voit qu'en 8b, mais c'est absolument secondaire. L'écran pro en photo, a un ICC sur 16b aussi, et une CG interne, on l'a vu : en 10b déjà ou 12b etc ...
Alors, que veux t on nous vendre ? un flux réel en 10b ? Attention, c'est quasi invisible sauf en loupe, ou vision de tres pres, et attention 2 c'est dangereux pour tuer le flux et les rendements. D'où ces 8b des Matrox, qui nourrrissent un 10b externe ... bonsoir l'intéret. Car evidement, jamais on ne sortira à partir des 12b de la LUT interne, je l'ai déjà dit c'est un calcul fixe et TRES lent à produire. Rien à voir avec le flux réel de la CG de l'ordi, ni celle active de l'écran, celles ci sont toutes les deux en 8b ! Sinon à ne plus jamais passer un jeu en 3D de 1999  ;D

La nouvelle génération revendique les 10b (hélas je pense toujours traduit à la volée apres les 8b normaux), mais les pilotes sont assez nébuleux, je n'ai pas réussi à savoir, depuis ces info récentes, si tout ceci n'était - pour les CG grand public - que des surquanti simples à partir de sorties 8b, ce qui se passait jusqu'alors, ou alors des algo qui puisent sur une partie hardware 10b et dans ce cas on étoufferait le flux pour presque rien. Le DPport mange en effet plus de ressources si la CG envoie ses 10b, lequels sont calculés et gourmands. Amha, je dirais que cette histoire est impossible, bien entendu. On en avait discuté il y a un an ou deux, et tout pense à croire que des 10b natifs sont totalement impossibles sauf à attendre les réalisations dans l'industrie 3D de véritables cartes en 16b, et des OS qui vont bien avec.

En attendant, cette "reconversion passive de 8 en 10" ne nous sert pas. Nous sommes déjà en 16b pour notre flux photo, fixe et particulier. Seul le cinema en a besoin de ces flux 10b, mm "faux" ou faciles, car ils doivent eux travailler ces données mobiles. Pas nous.

A suivre dans le futur ;)

Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 14, 2011, 04:29:45


Et un petit PS, et le sujet mériterait des pages et des pages.
Ce ne sont pas les 8b finaux qui sont un pb, pour nous autres visionnant une image applatie, c'est le taux d'erreur qui s'est glissé dans la chaine RVB, de la CG à l'icc. La quanti finale n'est pas un soucis.

Donc avoir une sortie 10b, un icc logiciel et non pas matériel (hardware), donc en 8b de la CG. Les algo, hardaware ou software, ne relateront que toutes les imprécisions en 8b. Mieux définir une erreur est toujours une erreur.

Donc sonde spectro, attaque de la LUt en 12b et production d'un ICC en 16b, on garde au moins la précision de l'écran interne ok pour une sortie 10b écran ?
Non plus ... !
Quand vous etes passé dans le CMS (gestion des couleurs) de PS, la correction de l'espace de travail s'est fait sur une correction en 8b, car l'OS d'une part, le logiciel de l'autre part, ne gerent que le 8b de la CG. C'est là où justement les pilotes 10d qui nous sont donnés sont extremement importants à saisir. Ils revendiquent de nourrir l'écran par la CG en 10b. Ok, mais pas suffisant.

Incertitudes pour les CMS, et des OS et surtout des logiciels ! Adobe le promets en partie, mais les OS trainent.
On est donc dépendant du point faible, et chacun parait ignorer ce fait.
A priori et j'espère me tromper*, on nous donne pas toute la chaine utile certes et on ne nous la promet pas pour l'avenir de façon claire et nette.
En vision, on ne peut pas gagner, à un moment, dans cette aventure 10b, pour la photo sous CMS.
-
Car comme chacun le sait, le maillon faible commande à toute la chaine.
* j'espere vraiment. Néanmoins ce serait étonnant qu'une niche infime emnène le tout, ce sont les joueurs qui provoqueront les bascules en 16n natif sur CG un jour. Là gros sous et rentabilité.

Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 14, 2011, 08:13:33
Merci Olivier p de tenter de faire une synhsèse.

On s'apercoit qu'il nous manque effectivement de vraies certitudes factuelles sur ce qui se passe à chaque étage des composants et logiciels  industriels.

Je pense  qu'adobe et ses conversions Cms dépasse depuis longtemps le calcul puis la sortie au moins en fichier en huit bits puisque c'est une option  survivante pour les OS et hardware des pc ou mac les plus vieux.
Aprés ce qu'en font les CG, les standards de transmission, la connetique et les différents sous systemes de l'écran est un vrai pb.
Toutefois, je pense que depuis longtemps, les exigences des images de synthses pour l'industrie lourde de la production broadcast des films haut de gamme qui génére des nuances calculées sur 48 bits + bits de calages utilise des ecrans tels feu le 2480 dreamweaver de HP largement au dessus de huit bits pour faire le design puis le controlede  qualité final qui sont d'une exigence extreme.

Les solutions existent mais sont elles disponibles, standardisées et abordables? c'est toute la question.
Choisir un ecran sur le seul critere du nb de bits "marketing" serait une belle erreur comme le titre du fil. Ce n'est heureusement pas que çà qui définit une trés bonne chaîne d' affichage.

D'ailleurs Olivier-p ta synthèse prouve bien qu'il faut raisonner en chaine d'affichage et pas seulement en écran .
Amis consommateurs groupons nous pour avoir enfin toute la transparence !!



Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 14, 2011, 09:31:42
Citation de: Olivier-P le Juillet 14, 2011, 04:10:10
Pour les envois d'informations externes cette fois ci, les 10bits sont donc la valeurs des infos pour nourrir votre vision ... l'écran revendique de pouvoir afficher ces finesses ... mais ici on se heurte à un gros probleme que les cartes graphiques modernes n'adressent du 10b réel que dans tres peu de cas. Et savoir lequel ... Et tres souvent uniquement dans la chaine de prod Broadcast.
On a des CG qui émettent du 10b depuis pas mal de temps en version grand public, par exemple avec les Matrox, mais cette fonction (ancienne) est uniquement une quanti refaite à partir de 8b du ramdac de la carte .. et aussi ce sont souvent les sorties analogiques seules qui ont longtemps bénéficié de ces valeurs, le calcul se faisant en numérique 10b pour ensuite produire une fréquence analogique de qualité, toujours sur systemes Broadcast ( cinéma pro etc ) et sur écran analogiques.

Je ne comprends pas bien ton propos, Olivier : la plupart des cartes graphiques modernes sortent en 10 bits réels. Beaucoup de ces cartes sont "castrées" de fait de façon logicielle sur 8 bits, car les pilotes leur interdisent de sortir véritablement en 10 bits. Voir à ce sujet le Catalyst ATI, qui n'autorise les 10 bits que si on dispose d'un modèle haut de gamme du fabricant, pour d'évidentes raisons de gamme : je suis persuadé que le hardware embarqué des cartes est le même...
Citation de: Olivier-P le Juillet 14, 2011, 04:10:10
Alors, que veux t on nous vendre ? un flux réel en 10b ? Attention, c'est quasi invisible sauf en loupe, ou vision de tres pres, et attention 2 c'est dangereux pour tuer le flux et les rendements.

Pourtant, sauf erreur de ma part, travailler sur 8, 10 ou 12 bits ne requiert pas à ce niveau de puissance de calcul. Tout repose sur des LUT, si j'ai bien compris. Il suffit de disposer de l'espace mémoire suffisant : pas de besoin de puissance de calcul pour piloter une LUT, par définition...
Citation de: Olivier-P le Juillet 14, 2011, 04:10:10
La nouvelle génération revendique les 10b (hélas je pense toujours traduit à la volée apres les 8b normaux), mais les pilotes sont assez nébuleux, je n'ai pas réussi à savoir, depuis ces info récentes, si tout ceci n'était - pour les CG grand public - que des surquanti simples à partir de sorties 8b, ce qui se passait jusqu'alors, ou alors des algo qui puisent sur une partie hardware 10b et dans ce cas on étoufferait le flux pour presque rien.

Pour travailler un 10 bits, point n'est besoin de recréer ou de recalculer les deux bits de poids faibles, puisqu'ils existent déjà.
Sinon, j'avais cru comprendre qu'à condition de posséder la carte graphique qui va bien (elles sont toutes plus ou moins en 10 bits, mais faut-il encore que le pilote les active), de travailler avec des logiciels adaptés (photoshop CS5...) et un OS à jour (Windows Seven...), on disposait alors des 10 bits en sortie de la CG...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 15, 2011, 03:43:21


La réalité est loin des théories.
Tous les 10b revendiqués par les cartes normales sont des effets marketings. Seules les pros le font réellement et encore avec moultitude pb.

Quand à Adobe, il n'a jamais communiqué que le CMS lisait les rares pilotes 10b, qui sont déjà truffés de bugs avec les OS modernes.

http://www.imagescience.com.au/kb/questions/152/10+Bit+Output+Support

Désolé de faire tomber le rêve. Pas grave. D'autant que cela ne sert à rien pour nous, je vous le redis ;)

Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 15, 2011, 09:08:19
Citation de: Olivier-P le Juillet 15, 2011, 03:43:21
Désolé de faire tomber le rêve. Pas grave. D'autant que cela ne sert à rien pour nous, je vous le redis ;)

Ne sois pas désolé, Olivier : je possède une carte graphique ATI qui est 10 bits d'après les specs, mais le Catalyst ne permet pas de sortir en 10 bits avec cette carte (je n'ai pas l'onglet qui va bien dans le pilote). De plus, d'après ce que j'ai cru comprendre, XP ne permet pas non plus ce genre de chose.

Je suis d'autre part convaincu que la différence doit être pouillèmesque, même avec une dalle 10 bits, et je ne m'en préoccupe pas plus que ça.
Je trouve juste curieux que tu évoques des limitations matérielles là où je n'en vois pas... d'ailleurs, dans le lien que tu donnes (que j'avais déjà lu), il est très précisément fait référence aux conditions pour obtenir véritablement 10 bits, soit : Seven + CS5 + ATI haut de gamme + écran 10 bits, par exemple...
Titre: Re : Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 15, 2011, 09:19:14
Citation de: Verso92 le Juillet 15, 2011, 09:08:19
Ne sois pas désolé, Olivier : je possède une carte graphique ATI qui est 10 bits d'après les specs, mais le Catalyst ne permet pas de sortir en 10 bits avec cette carte (je n'ai pas l'onglet qui va bien dans le pilote).

D'ailleurs, je suis persuadé qu'il s'agit ici d'un bridage logiciel volontaire pour perpétuer un effet de gamme. La hardware des ATI d'entrée de gamme est bien évidemment le même que celui des cartes plus huppées, pour d'évidentes raisons de coûts. Un softeux habile pourrait certainement sans trop de mal, j'imagine, faire sauter ce verrou.
Et puis, honnêtement, depuis que les CNA ne sont plus utiles pour driver les écrans, 10 bits ne coûtent certainement pas plus chers que 8 bits, à partir du moment où les composants existent et implémentent la largeur du bus (car c'est de cela dont il s'agit). Où, du moins, je ne vois pas pourquoi...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Patounet9 le Juillet 15, 2011, 10:51:17
Il doit y avoir aussi, amha, des risques hardware de bande passante...Envoyer un signal 10 bits sur un écran 8 bits = ???

C'est pourquoi Ati, dans ses cartes pro 10 bits, ne valide pas par défaut ce choix, mais le propose avec avertissements...
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 15, 2011, 10:57:47
Citation de: Patounet9 le Juillet 15, 2011, 10:51:17
Il doit y avoir aussi, amha, des risques hardware de bande passante...Envoyer un signal 10 bits sur un écran 8 bits = ???

Je ne vois pas pourquoi : les deux bits de poids faibles n'étant sans doute pas câblés dans l'écran, et de toute façon pas pris en compte...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 15, 2011, 21:00:27
Citation de: Verso92 le Juillet 15, 2011, 10:57:47
Je ne vois pas pourquoi : les deux bits de poids faibles n'étant sans doute pas câblés dans l'écran, et de toute façon pas pris en compte...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 15, 2011, 21:06:47
Citation de: Verso92 le Juillet 15, 2011, 10:57:47
Je ne vois pas pourquoi : les deux bits de poids faibles n'étant sans doute pas câblés dans l'écran, et de toute façon pas pris en compte...
Ah bon ? Cà ferait un peu gros d'annoncer 10 bits pour des gens a priori sérieux comme Eizo ou Nec et de n'en câbler sciemment que 8. J'ai un peu de peine à adhérer à cette supposition sauf si lesdits constructeurs l'ont écrit eux même ...!.

PAr contre qu'on n'ait que 8 bits réellement significatifs sur 10 çà je peux. Ce qui serait déjà un progrés sur les 8 bits qui n'en faisaient réellement que 6
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 16, 2011, 02:29:32
Citation de: restoc le Juillet 15, 2011, 21:06:47
Ah bon ? Cà ferait un peu gros d'annoncer 10 bits pour des gens a priori sérieux comme Eizo ou Nec et de n'en câbler sciemment que 8. J'ai un peu de peine à adhérer à cette supposition sauf si lesdits constructeurs l'ont écrit eux même ...!.

Pas compris ta remarque... pour rappel, je répondais au message suivant :
Citation de: Patounet9 le Juillet 15, 2011, 10:51:17
Il doit y avoir aussi, amha, des risques hardware de bande passante...Envoyer un signal 10 bits sur un écran 8 bits = ???

Donc, je parlais des écrans 8 bits, qui poseraient soit disant problème avec des CG 10 bits.
Dans le cas des écrans 10 bits, ben... ils sont 10 bits, oui, évidemment !
Citation de: restoc le Juillet 15, 2011, 21:06:47
PAr contre qu'on n'ait que 8 bits réellement significatifs sur 10 çà je peux. Ce qui serait déjà un progrés sur les 8 bits qui n'en faisaient réellement que 6

Je ne vois pas pourquoi on n'aurait que 8 bits réellement significatifs sur 10, ou 6 sur 8 : on est quand même dans des quantifications qui peuvent être considérées comme relativement modestes au XXIe siècle...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: masterkun le Juillet 16, 2011, 02:48:41
j'avais quand meme pu lire qu'il y a une histoire de bande passante -> d'où le display port nécessaire pour marcher en 10bit
et n'oublions pas que ca n'est pas qu'un seul canal de 10bit

cela ne me paraît pas délirant d'un point de vue industriel que l'on réserve les puces moins performantes à l'entrée de gamme

rappelons nous que c'est ce qui est fait pour la fabrication des CPU et GPU: souvent issus du même processus de fabrication mais on les ventile dans les gammes suivant les tests de réussite de QA.

pour cela on pouvait se trouver avec des proc qu'on pouvait "activer" en entier mais qui étaient souvent moins stables que les "vrais" (hormis quelques séries spéciales où l'on pouvait tomber sur le bon coup) ... vu que l'entrée de gamme reste malgré tout l'essentiel des ventes et que les processus de fabrication sont meilleurs que ce que l'on pourrait nous faire croire :D
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 16, 2011, 03:16:28
Citation de: masterkun le Juillet 16, 2011, 02:48:41
j'avais quand meme pu lire qu'il y a une histoire de bande passante -> d'où le display port nécessaire pour marcher en 10bit
et n'oublions pas que ca n'est pas qu'un seul canal de 10bit

Bien sûr qu'il y a une histoire de bande passante, et elle est même très simple à calculer à la louche.

Si on prends par exemple un affichage de 1920 x 1200 à 60 Hz, cela donne 1920 x 1200 x 60 = 138 240 000 pixels à afficher par seconde.
Sur un canal 10 bits, cela donne donc 1 382 Mbits par seconde. Bien sûr, ce calcul est simpliste, mais je suis sûr qu'en ordre de grandeur, il n'est pas loin de la vérité...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 16, 2011, 03:52:48


Oui vous êtes retombés sur vos pattes finalement.

Un vrai 10b, de l'OS et des jeux, ferait revenir la vitesse des GPU à 1995.
C'est pourquoi l'industrie renacle.
Tout ce que vous voulez en correctifs divers, en LUT mm en 16b, mais pas de flux, ce serait la mort du petit cheval.

La seule industrie qui a vraiment besoin de son flux en 10b est bien la vidéo pro ( Cineon etc ). Le reste, nous entre autres, cela n'apporterait rien.
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Juillet 16, 2011, 09:43:44
Citation de: Olivier-P le Juillet 16, 2011, 03:52:48
Un vrai 10b, de l'OS et des jeux, ferait revenir la vitesse des GPU à 1995.
C'est pourquoi l'industrie renacle.

Pourtant, Olivier, la bande passante en 10 bits me semble 20% plus élevée qu'en 8 bits... 1995, tu es sûr ?
Citation de: Olivier-P le Juillet 16, 2011, 03:52:48
Tout ce que vous voulez en correctifs divers, en LUT mm en 16b, mais pas de flux, ce serait la mort du petit cheval.

Voyons, Olivier, par principe, il n'y a pas de problème de flux (du moins en terme de puissance de calcul) avec une LUT, puisqu'il s'agit d'un tableau indexé. On présente une valeur à l'entrée de la mémoire, et un coup d'horloge plus tard, on récupère la valeur correspondante en sortie, que ce soit en 8, 10, 16 ou 32 bits... par contre, cela nécessite, bien sûr, une quantité de mémoire d'autant plus importante que le nombre de bit est élevé.
Citation de: Olivier-P le Juillet 16, 2011, 03:52:48
La seule industrie qui a vraiment besoin de son flux en 10b est bien la vidéo pro ( Cineon etc ). Le reste, nous entre autres, cela n'apporterait rien.

Donc, pour toi, aucun avantage pratique à passer en 10 bits (CG + OS) même quand on possède un écran disposant d'une dalle 10 bits, si j'ai bien compris (pour nos applications "photo"). Je le devinais intuitivement, et puis, ça m'arrange : plus besoin de changer CG + OS !

;-)
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 17, 2011, 21:03:41


L'industrie cherche à imposer le 16b Verso ... le 10b mobiliserait des puces qui n'existent pas, le constructeur serait obligé de créer, le rapport des 20% serait hypothétique. Chaleur, dissipation, taux d'erreur et ECC, flux mémoire. Cher. Je vois pluto cela comme un gros pb* logar ! :) Pas envisageable, à part dans les marchés de niche où tout est possible.

* pas de hasard, pas de pilote 10b pour mr tt le monde

Ce 16b du futur, je ne fais pas de dessin, est castrateur. J'ignore si cela existera un jour. Il faudrait demander à des cabinets de veille, s'il y a un gain qq part et si des études existent à long termes, ou si c'est exclu de fait.

Avec une LUT, je l'ai déjà dit, on est déjà à 16b (mm si pour les CM adobe renvoit la vision en 8b) dans les icc moniteur, et dans bcp de cas, PS bosse en 16b sur bcp de fonctions filtres par exemple. Corel Paint shop pro aussi. Par contre, pour produire une seule image, il faut parfois qq secondes entières dans les plus complexes des filtres. Le 16b est aussi à l'oeuvre en dématricage. Travaux unitaires.

Si les CG étaient en permanence en quanti supérieure, c'est 60 images par seconde qu'il faut produire. Et toutes les chaines derrières, comme dit précédemment.

Les perfs des cartes sont basées sur une course démente entre ATi et Nvidia, les 8b les arrangent énormément, et voire les 4 bits quand on le pouvait sur des jeux, l'amélioration était immédiate, pas dit d'ailleurs que certaines phases actuelles ne soient pas sousquantifiées en 3D pour aller plus vite, c'est invisible à l'oeil dans les mouvements rapides  !!! Ce n'est pas 10b que cherchent les GPu, c'est ... moins !  et personne ne le voit.

-

Je n'imagine mm pas le passage à 10b, 12b ou autres 16b, qui acceptera le premier de perdre sa suprématie ... pour des couleurs et densités que personne ne verra, sauf en arret sur images et avec un spectro professionel  ;D

Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 17, 2011, 22:31:08

Verso le pb d'avoir 10, 8 ou 6 bits réellement signifiactifs est au niveau des commandes  des lampes fluo ou des leds dans les Lcd comme des tubes dans les anciens Crt. Il n' y a évidemment aucune difficulté et depuis longtemps sur la partie numérique que ce soit dans le calculo ou les Lut de la CG et maintenat dans les boitiers APN évidemment.

Je ne suis pas trop d'accord avec Olivier :  Ben oui la photo a d'autant plus besoin de précision que l'image est statique et veut tendre à une qualité de reproduction s'appochant de la capacité énorme de l'oeil humain à distinguer des nuances infîmes. ( Regardez un coucher de soleil dans la nature Olivier et  amenez à côté la meilleure des restits photo il y a un gros gap et l'oeil le voit trés bien.
La vidéo pro elle fait du 16 bits et plus par voie, en production  pour d'autres raisons que le besoin fondamental d'afficher l'image : à l'origine des besoins de recopies multiples qui posaient des pb de dégradation même en numèrique, le passage dans les régies et cascades d'éffets , les traitemets de tout type avant diffusion ,   en broadcast avant les standardisations de passer d'un standard à l'autre sans perte etc etc . Et surtout une différence historique énorme qui a permis à la vidéo d'avancer plus vite sur ce domaine : la capacité financière énorme de la clientèle broadcast à se payer des équipements industriels lours et chers parcs de caméras de studio et de reportages, des régies , des studios numériques dont la moindre unité permet à ses acteurs boites de prod, chaines de diff , et maintenant production direct de films en tout numèrique etc de racheter en un mois le plus gros labo photo de France. Depuis toujours la vidéo pro est dans une autre sphère techico finacière que la photo. Bref la vidéo est une industrie lourde capable de se payer les meilleures techniques et ceci en permanenceavec des soutiens finaciers étatiques que n'a pas la photo loin de là.
dans tous les pays du monde.
Quant au pb de flux série limité si je suis votre raisonnementt les 30 pouces 2560*1600 * 10 ou 12 bits seraient inutiles puis qui'il n'ya pa pas d'OS et de GG ou de connectique . M Eizo et Nec nous mentiraient ils ? Ben non ils ne les ont pas fait par hasard mais bien parcequ'il y a un marché et donc que des solutions techniques de toute la chaine d'affichage existent.

Bref si le marché de la photo le justifiait l'industrie aurait vite fait de nous faire du 16 bits  par voie en 2560 *1600 pour alimenter nos 30 pouces et surtout d'arréter de nous faire des APN mono capteurs à matriçàge pour  nous faire des vrais tri CCD qui existent depuis 25 ans en vidéo et même dans les caméras amateurs depuis 10 ans voir plus. 
MAis la photo experte ou pro ( pas le full amateur) est un marché confidentiel comparé à la vidéo pro.
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 18, 2011, 03:20:29


Restoc, la réponse est dans ta question, le Broadscast a besoin de passer des filtres qui remuent luminances et autres effets. Cata si 8b. C'est tout.
Eux sont un flux, donc tout doit etre corrigé.
Nous sommes une image fixe, donc notre 16b existe pour les travaux aussi.

A distance normale, personne ne peut voir une différence d'un dégradé en 8b ou en 16b, personne. Si on s'approche, oui éventuellement, sur image arrétée, l'oeil rivé sur un détail, ou en loupe.

Les écrans 10b sont là pour le controle des flux vidéo bdcst, cela permet de ne pas abimer le flux réel par un sous échant mauvais, et de bien vérifier le travail des filtres. Ce n'est pas un mensonge, ce n'est pas pour nous simplement.

Qui peut le plus, peut le moins ? ok. En attendant personne ne se mobilisera pour une niche infime, sans voir vraiment le résultat, alors que oui les video bougent tout le marché pro qui est bien autre !

Tri CCD ? ok, mais à quel prix aurons nous alors des APn de faible def ? bof bof, le débat est tranché depuis longtemps avec les Bayer qui n'ont pas de pertes chromatiques vraiment flagrantes et permettent une énorme définition pour un espace donné. Voir le SD1 ... Autre tech, mais du mm ordre, faire une trichromie exacte. A quel prix encore une fois, et ici au sacrifice du bruit !
La video et la photo ne sont pas les mm domaines, mm si les tech s'y croisent.
Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 19, 2011, 08:44:03
On est tout à fait d'accord Olivier sur la différence des mondes vidéo et photo... sauf sur la sensibilité de l'oeil et mon coucher de solei!!

Il ne faut pas confondre : l'impossibilité à distinguer plus de 300 nuances sur l'espace contraint des techniques d'affichage actuelles, là on est à peu prés d'accord et la capacité réelle de l'oeil humain qui est nettement supérieure.
Encore que si on affiche une mire de 1024 tons sur toute la largeur d'un écran vrai 10 bits et seulement 256 l'oeil le détecte parfaitement, c'est encore plus vrai si on affiche le dégradé sur une sphère et çà devient évident si on affiche des couleurs pastel.  Pour un oeil éxpérimenté cà fait la même différence de "modelé" qu'un  MF avec un 24 *36 : çà "ressemble"et çà peut contenter M tout le monde mais l'un est bp plus qualitatif que l'autre et en tout cas un "Oeil" de métier, coloriste, peintre d'art etc eux voient la différence et peuvent l'anlyser. C"est comme un "Nez" chez les parfumeurs.

le Tri CCD est à 1500 euros voire moins en vidéo. C'est pas une question de prix. C'est surement une question d'encombrement en Full Frame. Cest pour çà que la solution type Sigma Fovéon pourrait un jour s'imposer.
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 21, 2011, 04:14:43
Citation de: restoc le Juillet 19, 2011, 08:44:03
On est tout à fait d'accord Olivier sur la différence des mondes vidéo et photo... sauf sur la sensibilité de l'oeil et mon coucher de solei!!

Il ne faut pas confondre : l'impossibilité à distinguer plus de 300 nuances sur l'espace contraint des techniques d'affichage actuelles, là on est à peu prés d'accord et la capacité réelle de l'oeil humain qui est nettement supérieure.
Encore que si on affiche une mire de 1024 tons sur toute la largeur d'un écran vrai 10 bits et seulement 256 l'oeil le détecte parfaitement, c'est encore plus vrai si on affiche le dégradé sur une sphère et çà devient évident si on affiche des couleurs pastel.  Pour un oeil éxpérimenté cà fait la même différence de "modelé" qu'un  MF avec un 24 *36 : çà "ressemble"et çà peut contenter M tout le monde mais l'un est bp plus qualitatif que l'autre et en tout cas un "Oeil" de métier, coloriste, peintre d'art etc eux voient la différence et peuvent l'anlyser. C"est comme un "Nez" chez les parfumeurs.

le Tri CCD est à 1500 euros voire moins en vidéo. C'est pas une question de prix. C'est surement une question d'encombrement en Full Frame. Cest pour çà que la solution type Sigma Fovéon pourrait un jour s'imposer.


D'accord pour l'encombrement.

Pour les dégradés, personne ne voit de cassures à 256 niveaux, pour la simple raison que la resolution de l'oeil est en deça à priori dans les théorie de def humaine.
Techniquement c'est toujours plus de mettre plus, mais pas de résultats tangibles normalement. J'ai fait l'expérience avec un Seven et une carte pro d'un serveur qu'on livrait, pilote passé, deux fichiers cote à cote, rien de rien. Je faisais basculer l'un et l'autre ... sans différences. Je ne la voyais qu'en collant mon nez à 20cm, c'est pourquoi je parlais de s'approcher - plus que normal - pour voir cette sacré différence. A distance normale, mes yeux ne pouvaient plus distinguer, et cela correspond donc aux def possibles de l'humain. Je veux bien que qq1 aient une meilleure accuité que la mienne, mais de loin cela m'étonnerait fort (?).
Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 21, 2011, 07:59:55
Bonjour Olivier,
Bon si le sujet te passionne moi aussi : on va essayer de prendre la comparaison avec la bonne vielle électronique.

-des limites au delà duquel on ne voit plus ( longueur d'onde ( UV, Visible, IR), une sensibilité spectrale ( combien de nanomètres peut on séparer); Lum max; lum min en cd ou en Lux, et l'intervalle Lum min).IL y en a d'autres encore plus sioux mais au moins ceux ci sont modélisables
-Tous ces paramètres en plus interagissent et donc des tests de vision  ou d'observation doivent être menés dans des condtions draconiennes de précision pour en tirer des conclusions.
-Ainsi un meme écart de 1/256 peut être rendu visible ou complétement invisible selon que l'on travaille dans des conditions idéales pour l'observateur ou complétement en dehors. Vouloir déceler 1/256 sur un trés bon écran mais dans une pièce trés éclairée ou une dalle brillante ou avec la résolution de 1/ 1 est illusoire. De plus selon que l'on aura un écran froid ou chaud on n'a pas les mêmes perf pour un meme individu. Afficher 256 plages par dalles sur un grand 30 pouces Eizo pleine page et dans le noir et miracle on les voit. Il y a donc un facteur surfacique et de forme qui renforce ou gomme la performance de sensibilité. Le groupe -Oeil-cerveau est tréqs puissant pour détecter des éléments structurés , bp moins pour apprécier des variations de nuances informes. Là ou c'est encore plus compliqué c'est la détection de nuances colorées : la simple réflexion de murs un peu tintés sur un écran peut annuler ou renforcer la perception de nuances couleur.

Bref entre un pilote de chasse ou un photo-interpréte militaire expérimenté et M tout le monde il y a des perfs trés différentes. Tout le monde n'a pas 22/10 à chaque oeil par ex ! ET bien eux si!
Et tout le monde ne se met pas dans les conditions idéales de vision pour son couple oeil-cerveau.

Tout ceci pour dire est que tu as certainement raison en bon praticien : dans 90 ++ des cas 8 vrais bits et un bon écran calibré et la plupart des photographes seront satisfaits ...puisqu'ils n'ont pas de point de comparaison en conditions idéales.
Mais apprenons leur et mettons les dans les condtions "systeme+réglages+Conditions" et là il vont se demander pourquoi la robe de la mariée n'est pas auusi blanche qu'ils pensaient!

PAr contre faute de comparaison meilleure possible à ce jour je pense que 10 vrais bits par voie avec les systèmes actuels (écrans) biuen réglés est une limite au moins pratique à défaut d'être absolue pour u n oeil hors norme.

Bon il y a quelques tonnes de bouquins sur le sujet de la vision. Là on n'a parlé que des aspects techiques. MAis la vision dépendant du cerveau il ya les aspects motivation, interet , culturels qui vont déterminer la puissance d'observation sur une ou des caractéristiques de perception.

ET là ... on ne peut plus généraliser avec nos petits 8 bits, c'est chez le Psy qui ont plein de choses à nous expliquer.

Cdlt
Titre: Re : Ecran 16bits, quel choix ?
Posté par: Olivier-P le Juillet 23, 2011, 05:03:55


La CIE s'est déjà occupé de tout cela  :)

Tu as raison pour les interdépendances, mais les "moyennes" sont connues. Et la chroma est un sujet bien différent - plus subjectif - que la puissance de discernement, de la définition.

Pour les 1/256, la taille de l'engin importe peu, on se cale toujours avec une distance proportionnée. Donc cela efface en partie le rapprochement supposé. Je pense plutot aux effets de loupes, mais les logiciels interpolent en direct, avec des effets plus ou moins heureux ( Corel est supérieur à Adobe sur ce point, sauf les effets OpenGL mais gourmands et trop lisseurs ) qui de toute façon recréent les "trous" ou escaliers manquants.
Sincérement, et jusqu'à preuve du contraire, je ne peux pas voir mieux que les dégradés actuels, car par définition je ne vois déjà aucune rupture. Faire mieux ? mieux que ce qui est déjà bon ? pour quoi faire ? Les logiciels, eux oui, pour recréer mieux des zones qui recoivent des effets, ok. Mais notre vision directe d'un fichier passif ? ... Et ceux traités le sont ... par des moulinettes 16b ... donc quoi améliorer ?
Ou alors il y a peut etre des cas de figure que je ne connais pas, bien effectifs ? je demande à voir.

Titre: Re : Ecran 16bits, quel choix ?
Posté par: restoc le Juillet 23, 2011, 07:26:56
On est globalement d'accord pour 99% des utilisateurs.
Et la vision couleur est encore un autre monde.
D'ailleurs on devrait faire une "class action " comme aux USA pour  demander à MM Eizo, NecQuatto x et y de nous faire un rabais sur les bits qui ne servent à rien si ce n'est au marketing !

Titre: Re : Ecran 16bits, quel choix ?
Posté par: ERPCH le Mai 03, 2015, 11:49:39
Merci pour ces réponses.
Je ne suis pas expert de la chaîne graphique, mais je crois avoir compris que :
  - les raw du canon 6D sont en 16 bits
  - LR5 travaille en 16 bits
  - l'imprimante canon pro 1 avec le driver xps travaille en 16 bits

donc ça semble être cohérent d'utiliser le driver XPS,

Le truc qui m'interpelle c'est que souvent l'affichage sur moniteur est limité à 8 bits, voire 10 bits sur les config haut de gamme, cf le site de CMP
http://www.cmp-color.fr/affichage_10_bits.html

Autre question, est-ce qu'il faut refaire les profil papier en changeant de driver ?
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: belnea le Mai 03, 2015, 11:57:37
14 bit pour les raw du 6D
Titre: Re : Ecran 16bits, quel choix ?
Posté par: ERPCH le Mai 03, 2015, 12:01:31
Oups, pardon, par erreur, j'ai posté mon précédent message dans le mauvais fil.
Il était destiné au fil de la canon Pro 1, mais finalement il a aussi un peu sa place ici  ;)
Titre: Re : Ecran 16bits, quel choix ?
Posté par: ERPCH le Mai 03, 2015, 12:03:36
Merci Belnea pour la correction sur les 14 bits du 6D
Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Mai 03, 2015, 12:18:38
Citation de: ERPCH le Mai 03, 2015, 11:49:39
Le truc qui m'interpelle c'est que souvent l'affichage sur moniteur est limité à 8 bits, voire 10 bits sur les config haut de gamme, cf le site de CMP
http://www.cmp-color.fr/affichage_10_bits.html

Je ne vois pas bien ce qui t'interpelle... les meilleurs écrans disponibles aujourd'hui travaillent en 3x10 bits, c'est tout (on est tout simplement pas capable de faire mieux pour l'instant).
Sans compter que je ne vois pas de rapport direct entre le fait que le logiciel travaille en 16 bits et que l'écran n'en affiche que 10 (ou 8 bits)...
Titre: Re : Ecran 16bits, quel choix ?
Posté par: ERPCH le Mai 03, 2015, 12:57:51
J'ai fait une erreur de post dont la place était sur un fil de la canon pro 1 (concernant l'intérêt du driver XPS 16 bits pour cette imprimante).

Ce qui m'interpellait, c'etait l'intérêt d'imprimer en 16 bits, une image que l'on a travaillé en la visualisant sur un écran en 8 ou 10 bits.
Mais ce que je commence à comprendre maintenant, c'est que :
- peu importe, car ainsi le tirage produit un dégradé plus nuancé que l'écran
- il semble que la différence entre le driver 8 bits et 16 bits de l'imprimante est imperceptible à l'oeil
- je n'ai plus qu'à me mettre aux essais pour me faire mon opinion, car il semble que l'on puisse installer les deux drivers

Titre: Re : Re : Ecran 16bits, quel choix ?
Posté par: Verso92 le Mai 03, 2015, 13:02:12
Citation de: ERPCH le Mai 03, 2015, 12:57:51
Mais ce que je commence à comprendre maintenant, c'est que :
- peu importe, car ainsi le tirage produit un dégradé plus nuancé que l'écran
- il semble que la différence entre le driver 8 bits et 16 bits de l'imprimante est imperceptible à l'oeil
- je n'ai plus qu'à me mettre aux essais pour me faire mon opinion, car il semble que l'on puisse installer les deux drivers

Je pense que tes propres essais ne devraient pas être éloignés de tes hypothèses...