Comment Acheter un écran 27"

Démarré par bg1000, Septembre 30, 2013, 23:22:40

« précédent - suivant »

Nikojorj

Citation de: Miaz3 le Octobre 03, 2013, 22:01:46
Avec une photo de plus de 8 bits ayant de fortes valeurs en hautes et basses lumières ?
Ca joue sur la finesse des dégradés, pas sur les valeurs min/max atteignables.

Verso92

Citation de: Miaz3 le Octobre 03, 2013, 22:01:46
Après je ne polémique pas sur la qualité que fournit cet affichage, c'est plutôt une rigueur par rapport au matériel et ce que ce matériel va vous apporter.

Ça, c'est la théorie...
Pour essayer d'expliciter un peu mon propos, voici ce que ça donne (écran photographié, pas moyen de faire autrement...) avec le fichier "test" fourni spécialement par AMD pour vérifier la bonne prise en compte par le système du mode d'affichage 3 x 10 bits :
(avec de "vraies" photos, même en 16 bits, même avec de fins dégradés, pas moyen de voir une seule fois la moindre différence...)

Miaz3

#27
CitationCa joue sur la finesse des dégradés, pas sur les valeurs min/max atteignables.
Un pixel sera toujours entre 0 et 1, physiquement. Donc oui un écran 10 bits n'iras pas plus haut que 10 bits/c.
Et si on fait bien le calcul ça rajoute que 4 niveaux de gris par canal (2bits), on sait tous très bien qu'il est plus préférable de visé un écran en 12 Bits afin d'avoir 16 niveaux de gris sup. (voir 14 pour de l'étalonnage)
Mais ces 4 niveaux on leurs importances et mis bout-à-bout donne une finesse que le 8 bits n'as pas. (banding, moirage...)
Ensuite pour les valeurs ça dépend du fichier utilisé et comment la CG va travaillée pour quantifier ça dans du 10,12,14 bits.

CitationÇa, c'est la théorie...
Et de la pratique,

Citationavec le fichier "test" fourni spécialement par AMD
Tu y tiens à ton 10 bits...C'est une barre de gris ?

Verso92

#28
Citation de: Miaz3 le Octobre 03, 2013, 23:56:38
Un pixel sera toujours entre 0 et 1, physiquement. Donc oui un écran 10 bits n'iras pas plus haut que 10 bits/c.
Et si on fait bien le calcul ça rajoute que 4 niveaux de gris par canal (2bits), on sait tous très bien qu'il est plus préférable de visé un écran en 12 Bits afin d'avoir 16 niveaux de gris sup. (voir 14 pour de l'étalonnage)

Pas trop compris de quoi tu parles... de plus, sauf erreur de ma part, il n'existe pas d'écran 12 ou 14 bits, ni de carte graphique, d'OS ou de logiciel gérant plus de 10 bits en affichage (c'est le max actuel).
Citation de: Miaz3 le Octobre 03, 2013, 23:56:38
Tu y tiens à ton 10 bits...C'est une barre de gris ?

Pas compris non plus...
(c'est très précisément un fichier (un dégradé de gris) fourni par AMD (ATI) qui permet de vérifier que l'ensemble du système a bien pris en compte la gestion par le système du 3 x 10 bits en affichage)

Verso92

Citation de: Verso92 le Octobre 04, 2013, 07:35:47
(c'est très précisément un fichier (un dégradé de gris) fourni par AMD (ATI) qui permet de vérifier que l'ensemble du système a bien pris en compte la gestion par le système du 3 x 10 bits en affichage)

Et, bien sûr, pour montrer ça sur le forum, il n'y a qu'un seul moyen : photographier l'écran dans les deux configurations d'affichage...

Nikojorj

Citation de: Miaz3 le Octobre 03, 2013, 23:56:38
Et si on fait bien le calcul ça rajoute que 4 niveaux de gris par canal (2bits),
Enfin 4 fois plus, 768 niveaux quoi! Mais oui, pour l'affichage, c'est un peu du luxe.

Citation de: Verso92 le Octobre 04, 2013, 07:49:44
Et, bien sûr, pour montrer ça sur le forum, il n'y a qu'un seul moyen : photographier l'écran dans les deux configurations d'affichage...
Tu n'as pas trop boosté le contraste? J'avoue que je ne m'attendais pas à ce que ça se voie autant...

arno06

Citation de: Verso92 le Octobre 03, 2013, 22:36:59
Ça, c'est la théorie...
Pour essayer d'expliciter un peu mon propos, voici ce que ça donne (écran photographié, pas moyen de faire autrement...) avec le fichier "test" fourni spécialement par AMD pour vérifier la bonne prise en compte par le système du mode d'affichage 3 x 10 bits :
(avec de "vraies" photos, même en 16 bits, même avec de fins dégradés, pas moyen de voir une seule fois la moindre différence...)

Si tu ne vois pas la différence entre les deux dégradés que tu as montré ici c est que tu dois avoir un écran avec une résolution un peu faiblarde  !
Sur ipad retina la différence des dégradés saute aux yeux ....

tenmangu81

Citation de: arno06 le Octobre 04, 2013, 09:29:56

Sur ipad retina la différence des dégradés saute aux yeux ....

Et même sur mon écran d'iMac.....

arno06


restoc



Si on regarde ce qui sort via le web de ces clichés de Verso avec un histogramme/ligne il n'y a guère plus de  6 bits plus un peu de banding dû à l'échantillonnage fichier et écran.  :D :D alors s'en servir comme preuve pour parler de ce qui se passe entre 8 et 10bits ... ;)

Rappelons aussi au passage que sauf Photoshop qui sait activer les cartes graphiques en 3*10 bits il n'y a pas d'autre logiciel de visualisation autre que les logiciels de synthèse d'image ,à ma connaissance, qui le fait ni DXO, ni LR, ni CNX. Peut être Gimp ?? Donc le premier pb est d'avoir la chaîne complète.
Sérieusement on ne peut pas comparer du 10 et 8 bits comme çà. Il faut deux écrans identiques côte à côte dans le pénombre, des observateurs dans le même axe  et plein d'autres conditions notamment de la vision de chacun car tout le monde n'est pas apte.  Notamment inutile de faire faire le test à des porteurs de lunettes car même de très bonne qualité leur transmissivité imparfaite va dégrader les nuances les plus fines. Donc si vous n'avez pas une vue de pilote de chasse en activité (pas à la retraite) inutile  de dire qu'il n' y a pas de différences : vous ne pouvez tout simplement pas les voir. C'est comme nier les ondes hertziennes parce qu'on ne les voit pas!
PS la différence du nb de nuances 8/10 bits est de 1024-256=768 mais au cube, soit qqs 45 millions de nuances supplémentaires ... pour ceux qui ont la chance de les voir.


remyphoto75

Plus que de se poser la question de est-ce que ça se voit, je me poserai la question de est-ce que j'en ai un besoin vital ?
Sinon la rupture des dégradés sur le fichier ramp est très nettement visible à l'oeil nu même sans coller 2 écrans côte à côte.

Verso92

Citation de: arno06 le Octobre 04, 2013, 09:29:56
Si tu ne vois pas la différence entre les deux dégradés que tu as montré ici c est que tu dois avoir un écran avec une résolution un peu faiblarde  !
Sur ipad retina la différence des dégradés saute aux yeux ....

Je reformule au cas où (je pensais pourtant avoir été clair) : la différence sur le fichier "ramp" (celui affiché à l'écran sur ma photo) se voit, bien sûr.
C'est sur des vraies photos que la différence devient tellement subtile que je n'ai pas réussi à la voir une seule fois...

arno06

Citation de: Verso92 le Octobre 04, 2013, 16:10:19
Je reformule au cas où (je pensais pourtant avoir été clair) : la différence sur le fichier "ramp" (celui affiché à l'écran sur ma photo) se voit, bien sûr.
C'est sur des vraies photos que la différence devient tellement subtile que je n'ai pas réussi à la voir une seule fois...

Ah ok , tu m a fait peur...
Ca doit se voir sur des grands ciels bleu ( ou cieux d ailleurs comme tu préfères ) ...

Nikojorj

Citation de: arno06 le Octobre 04, 2013, 17:10:45
Ca doit se voir sur des grands ciels bleu ( ou cieux d ailleurs comme tu préfères ) ...
Rien que le bruit photonique doit suffire à y masquer, si ça se trouve.
http://theory.uchicago.edu/~ejm/pix/20d/tests/noise/noise-p3.html#bitdepth (mais qu'est-ce qu'on ferait sans Emil Martinec?)

arno06

Citation de: Nikojorj le Octobre 04, 2013, 17:19:18
Rien que le bruit photonique doit suffire à y masquer, si ça se trouve.
http://theory.uchicago.edu/~ejm/pix/20d/tests/noise/noise-p3.html#bitdepth (mais qu'est-ce qu'on ferait sans Emil Martinec?)

Je ne suis pas si sure que cela le rapport signal bruit sur les appareil moderne est tellement bon en iso natif que ...
En tout cas de mon expériences /sur les appareil moderne c est la première fois que je perçois des différence entre le tiff 8 et 16. Et justement cette différence je la vois la ou l image est la plus lisse cad dans les ciel "grand bleu"...

Nikojorj

Ben pour savoir, faut prendre un ciel bleu en 16 bits, augmenter le contraste d'un facteur 4 et si besoin, sortir la pipette... si la pipette mesure du bruit, ça masquera les dégradés (bruit>=quantification).
Je viens de faire le test avec un 500d à ISO de base, et du bruit y'en a!

arno06

Citation de: Nikojorj le Octobre 04, 2013, 17:58:19
Ben pour savoir, faut prendre un ciel bleu en 16 bits, augmenter le contraste d'un facteur 4 et si besoin, sortir la pipette... si la pipette mesure du bruit, ça masquera les dégradés (bruit>=quantification).
Je viens de faire le test avec un 500d à ISO de base, et du bruit y'en a!

Le problème c est qu un 500 d c est pas un d800 :-) ...
Si je te dis cela c est que avant d utiliser le d800 je n avais jamais remarque ni ce phénomène ni l intérêt du 16 bit voire même du tiff sur le jpeg la un beau ciel bien bleu meiux vaut faire le contraste sur le raw avant conversion...
Ps bien entendu je ne connais pas le 500 d donc mon commentaire ne se voulait pas sélectif...

Nikojorj

Oui, j'imagine bien qu'on peut faire mieux - mais de ce que je vois, il faudrait faire beaucoup mieux pour ne pas avoir de bruit au 8e bit. Cela dit ce n'est pas impossible.

arno06

Citation de: Nikojorj le Octobre 04, 2013, 20:40:39
Oui, j'imagine bien qu'on peut faire mieux - mais de ce que je vois, il faudrait faire beaucoup mieux pour ne pas avoir de bruit au 8e bit. Cela dit ce n'est pas impossible.

J essaierai des que j ai un peu de temps de mettre un image illustrant ce dont nous avons discute plus haut.
Même si souvent ce qu on voit a l écran ne se voit plus une fois sur le forum on ne sait jamais ca peut etre intéressant...

On ouvrira un fil dans la section adéquat par contre ....
Désolé du HS....

Ps (pour verso) : oui on fera venir Sheila et ses copines aussi ;-)

Miaz3

Citationde plus, sauf erreur de ma part, il n'existe pas d'écran 12 ou 14 bits, ni de carte graphique, d'OS ou de logiciel gérant plus de 10 bits en affichage (c'est le max actuel).
Faux, des écrans en 12,14 et 16 bits existent. Tout comme les CG et l'affichage qui va avec.
Bien-entendu c'est utilisé dans des domaines spécifiques, comme l'industrie graphique.

Je disait que tu y tenais à ton 10 bits, car au tout début je parlai de 8 bits et plus sans trop vouloir me concentré sur le 10bits...

Citation(c'est très précisément un fichier (un dégradé de gris) fourni par AMD (ATI) qui permet de vérifier que l'ensemble du système a bien pris en compte la gestion par le système du 3 x 10 bits en affichage)
Grey bars > Barre de gris...désoler si je l'ai traduit littéralement.

CitationEnfin 4 fois plus, 768 niveaux quoi! Mais oui, pour l'affichage, c'est un peu du luxe.
Alors oui effectivement, j'ai dit de la merde...j'étais repartit sur les palettes 2bits.

CitationDonc le premier pb est d'avoir la chaîne complète.
C'était le but de ma premier remarque CàD qu'il faut la CG qui va avec.

Verso92

#45
Citation de: Miaz3 le Octobre 04, 2013, 21:09:21
Faux, des écrans en 12,14 et 16 bits existent. Tout comme les CG et l'affichage qui va avec.
Bien-entendu c'est utilisé dans des domaines spécifiques, comme l'industrie graphique.

Je parlais des écrans utilisés pour traiter les photos (même très haut de gamme). Pour des applications scientifiques ou militaires, à vrai dire, je n'en sais rien.
(par curiosité, je ne suis pas contre un lien vers un écran ou une CG affichant en 3x16 bits, par contre...)
Citation de: Miaz3 le Octobre 04, 2013, 21:09:21
Je disait que tu y tenais à ton 10 bits, car au tout début je parlai de 8 bits et plus sans trop vouloir me concentré sur le 10bits...

On ne s'est pas compris, dans ce cas... je reformule, donc : dans le cadre d'une chaîne graphique haut de gamme, on a le choix entre 8 et 10 bits, que ce soit pour les écrans, les CG ou les logiciels (et encore, seul Photoshop est capable d'exploiter les 10 bits).
Mon point de vue, partagé par beaucoup ici (dont des mecs pointus comme Olivier-P, par exemple), c'est que les 10 bits en photo n'apportent quasiment rien, et qu'on peut en toute quiétude choisir une CG 8 bits même pour piloter un écran haut de gamme, qui sera quelquefois en 10 bits.

En conclusion : écran haut de gamme (quelquefois en 10 bits) + CG 3x8 bits = excellent choix, sans aucune concession sur la qualité finale (ne pas négliger la sonde, aussi).

remi56

J'utilise un écran LG 27EA83, étalonné avec ColorMunki.
Très satisfait.
En plus comme je fais beaucoup de n&b argentique, le travail PS des fichiers est facilité par la taille de l'écran  qui limite le "scroll".
Scan avec Nikon LS9000 à 4000Dpi, ça dépote sur des nég PanF impressionnés par un RZ67ProII.
instagram: abilisprod

fabco

Citation de: Verso92 le Octobre 04, 2013, 23:25:24
Je parlais des écrans utilisés pour traiter les photos (même très haut de gamme). Pour des applications scientifiques ou militaires, à vrai dire, je n'en sais rien.
(par curiosité, je ne suis pas contre un lien vers un écran ou une CG affichant en 3x16 bits, par contre...)
On ne s'est pas compris, dans ce cas... je reformule, donc : dans le cadre d'une chaîne graphique haut de gamme, on a le choix entre 8 et 10 bits, que ce soit pour les écrans, les CG ou les logiciels (et encore, seul Photoshop est capable d'exploiter les 10 bits).
Mon point de vue, partagé par beaucoup ici (dont des mecs pointus comme Olivier-P, par exemple), c'est que les 10 bits en photo n'apportent quasiment rien, et qu'on peut en toute quiétude choisir une CG 8 bits même pour piloter un écran haut de gamme, qui sera quelquefois en 10 bits.

En conclusion : écran haut de gamme (quelquefois en 10 bits) + CG 3x8 bits = excellent choix, sans aucune concession sur la qualité finale (ne pas négliger la sonde, aussi).

j'aime bien également connaitre ces écrans et cg .J'ai cherché mais rien trouvé même le plan théorique.
J'espère qu'il ne confond pas avec les luts internes qui vont jusqu'à 16 bits.

Verso92

Citation de: fabco le Octobre 05, 2013, 13:20:14
j'aime bien également connaitre ces écrans et cg .J'ai cherché mais rien trouvé même le plan théorique.
J'espère qu'il ne confond pas avec les luts internes qui vont jusqu'à 16 bits.

J'imagine difficilement qu'on puisse confondre la profondeur de quantification d'une LUT avec celle d'un écran...
(mais rien trouvé non plus sur le net concernant ces fameux écrans en 3 x 16 bits... d'où ma curiosité !)

helyo

Bah, on peut aussi acheter un écran de qualité sur le net... Après avoir lu pas mal de fils ici, puis avoir appris que GMC et Ronan en avait un chez eux, je me suis lancé et j'ai commandé un premier 27" WG dans mon budget , le Dell 2711 chez Redcoon. Reçu l'écran déballé et taché, déjà mort en vrac dans un carton de déménagement, refusé le colis.. Quelques jours après j'en recevais un autre nickel qui équipe toujours avec bonheur un poste de travail. Depuis quelques semaines, j'ai aussi le successeur le 2713 H (à LED) sur un autre poste, toujours commandé chez le même fournisseur.

Bien qu'habitant près d'une assez grande ville, Nantes, je ne suis pas certain de pouvoir trouver en ville une boutique avec un vrai choix d'écrans bien réglés sinon étalonnés, à des tarifs réalistes de surcroît. A défaut de pouvoir comparer vraiment sur place de manière sûre et méthodique, on peut toujours lire les essais sérieux, les avis d'utilisateurs fiables (comme on en trouve ici par ex.) et finir par se faire sa religion avant de passer à l'acte; De plus les ahcats en ligne chez les fournisseurs sérieux permettent légalement de retourner la marchandise dans les sept jours qui suivent la réception sans avoir à se justifier.