Quelle carte graphique Quadro --> Eizo CG 277

Démarré par PM, Février 23, 2018, 17:37:57

« précédent - suivant »

PM

Bonjour,

Pour accompagner un Eizo CG 277 finalement quelles seraient les meilleures cartes graphiques "quadro" ?

Merci

;)



PM

Merci depuis septembre il y a 6 mois d'écoulés  ;D 

;)

paul.AU

Toute carte pro qui supporte le 3x10 bits. En gros toutes les nvidia quadro neuves en vente il me semble.
Pour faire tourner l'écran en lui même, pas besoin d'y mettre le prix du tout.
Après vous pouvez regarder ce que vous utilisez comme applis et si oui et comment elles utilisent le gpu, ce qui pourrait alors vous être utile. (Adobe,  C1, encodage vidéo, 3d ?)

Verso92

Citation de: PM le Février 23, 2018, 17:37:57
Pour accompagner un Eizo CG 277 finalement quelles seraient les meilleures cartes graphiques "quadro" ?

Si tu n'en dis pas plus sur tes attendus, sur les applications que tu utilises, etc, comment veux-tu qu'on te réponde ?

PM

Photoshop, C1 et bien d'autres... mais pas de 3D et vraiment peu de vidéo...
Impressions du matin au soir !  ;D

;)

paul.AU


PM

#7
Merci paul.AU

Sans vouloir faire le "ch...t" pourquoi celle-là plutôt qu'une autre ?

;)

paul.AU

Parce qu'une p6000 ne changera rien à votre affichage sur votre écran.
Ce qui changera c'est la puissance de calcul pour les rendus principalement (3d), également de meilleurs performances sur les logiciels qui utilisent un peu de calcul gpu aussi (Adobe LR, C1, etc). Mais à moins de cibler certaines performances précises très importantes pour vous dans votre flux de production, une p400 fera très bien l'affaire, et il y a d'autres postes de dépenses importants pour gagner en vitesse sur son ordi (ssd en particulier).

PM

Merci paul.AU

Pas de 3D, seulement du développement de Raw/Nef dans C1, travail de fichiers assez lourds dans CC, manipulations de gros dossiers remplis de fichiers assez costauds, pour mon activité d'impression.
Le but un affichage précis, de beaux dégradés...

Tiens entre Nvidia est-elle supérieure face à une PNY ?

Merci.

;)


PM


asak

Si tu fais que de l affichage en mode tataginette une k620 peut suffire.
Mais si tu fais des lots avec paquet de filtre etc et que tu utilises l accélération matériel la K2000 ou 2200 s imposent
Il me semble que C Métairie a fait un test entre les différentes cartes

paul.AU

Vous trouverez pas d'autres constructeurs que PNY qui fait les nvidia quadro (série pro des Nvidia) il me semble.
Pourquoi carte pro ? Car 3x10bits, nuances et dégradés biens meilleurs que les cartes grand pulics qui ne sont que 3x8bits.
Série pro car vous demandez le meilleur.
Sinon votre Gpu embarqué pourra toujours afficher qqchose (même si moins haut de gamme et en 3x8bits) sur votre écran cg277...
Donc l'optimal pour faire de l'affichage pour impression, c'est une petite carte graphique pro, (ou une grosse, mais si vous n'avez pas besoin d'un gain énorme de puissance coté logiciel, même pas besoin de se ruiner).

Je ne connais pas les gamme chez ATI, et je ne sais pas trop la manière de gérer le 30bits chez eux.
Sur photoshop vous avez une option pour activer le 30bits.

Et entre nous, le 30 bits c'est déjà over optimal, voir même du luxe pour du softproofing.

PM

Merci Asak et paul.AU pour vos bons conseils.

J'y vois plus clair dans mon choix le tout est de trouver la bonne adresse car dans les magasins de matériel info, ils sont très mal fournis !
Il faudra passer par le virtuel...

;)

Verso92

#14
Citation de: paul.AU le Février 24, 2018, 13:12:32
Vous trouverez pas d'autres constructeurs que PNY qui fait les nvidia quadro (série pro des Nvidia) il me semble.
Pourquoi carte pro ? Car 3x10bits, nuances et dégradés biens meilleurs que les cartes grand pulics qui ne sont que 3x8bits.

Sauf qu'à l'écran, aucune différence visible en photo...

Citation de: paul.AU le Février 24, 2018, 13:12:32
Je ne connais pas les gamme chez ATI, et je ne sais pas trop la manière de gérer le 30bits chez eux.
Sur photoshop vous avez une option pour activer le 30bits.

Chez ATi (AMD), les cartes "30 bits" sont en général les FirePro.

Mais ce n'est qu'une question de bridage logiciel : toutes les cartes ATi sont en 30 bits en hardware. Mais seules les FirePro (à la louche) permettent le 30 bits.

PM


olivier1010

Citation de: Verso92 le Février 24, 2018, 13:42:59
Sauf qu'à l'écran, aucune différence visible en photo...

Chez ATi (AMD), les cartes "30 bits" sont en général les FirePro.

Mais ce n'est qu'une question de bridage logiciel : toutes les cartes ATi sont en 30 bits en hardware. Mais seules les FirePro (à la louche) permettent le 30 bits.

Il y a une différence visible avec des dégradées générés par une application (et à condition de désactiver le dithering 8 bits dans cette application). Et à condition bien sur qu'elle sache utiliser le 30 bits à l'affichage. Ce qui n'est pas le cas de LR ni de C1 qui ajoutent automatiquement un dithering 8 bits pour l'affichage et ne sont donc pas capable d'envoyer un vrai 30 bits.

Il suffit d'utiliser un fichier de test ramp en 16 bits sous Photoshop en mode 30 bits (avec un moniteur arts graphiques connecté en Display Port pour activer réellement le 30 bits) pour s'apercevoir qu'il y a une différence notable en 8 et 10 bits. En 8 bits, on distingue des marches d'escalier, en 10 bits c'est parfaitement lisse.

Photoshop en mode 30 bits ou application 3D supportant le 30 bits indispensable pour voir la différence.

Pour les images en provenance d'un capteur, à moins d'appliquer certaines retouches qui pourraient mener à une différence visible, le rapport signal / bruit d'une telle image n'est généralement pas suffisant pour générer des artefacts dans les dégradés. En fait un capteur produit une image naturellement bruitée (dithering "naturel") qui empêche normalement l'apparition du banding même en 8 bits RGB.
Certaines cartes non pro peuvent supporter le 10 bits, de mémoire. Mais uniquement en Direct X. La plupart des applications de retouche et de 3D utilisant OpenGL, en pratique seules les cartes pro sont utilisables pour obtenir du 30 bits.

Conclusion : le 30 bits est intéressant dans certains cas, principalement pour le monitoring en postprod cinéma où les effects 3D sont générés numériquement et seront projetés en salle avec 10 ou 12 bits de profondeur par canal. Il faut être capable de contrôler en amont que les effets spéciaux ou les retouches ne produiront pas d'artefacts à la projection en salle.

En photo, pour affichage final en sRGB, le 30 bits n'apporte pas, dans 99.9 % des cas, un bénéfice réel. Cela changera peut être dans les années à venir, avec l'apparition des écrans HDR disposant également d'un espace couleur plus large comme le REC-2100. Mais il y a encore de la marge avant que cela ne se généralise sur les écrans informatiques. Pour l'instant seules les TV haut de gamme en sont dotées.

Un moniteur arts graphique avec calibration hardware, utilisant une courbe tonale sRGB ou L* est bien plus important que le 30 bits en photo courante. C'est d'autant plus important que les applications couramment utilisés en photo (principalement LR et C1) sont 8 bits.

L'utilisation d'une courbe tonale sRGB ou L* permet de bien déboucher et linéariser perceptuellement les noirs (sRGB et L* sont des courbes gamma dont la partie des bas niveaux est fortement retravaillée pour s'approcher de la caractéristique perceptuelle de la vision humaine). La calibration hardware est indispensable pour profiter correctement de L*, sinon sur un moniteur bureautique, en calibration software, il est plus que probable que sRGB donne de meilleurs résultats car c'est théoriquement la courbe tonale native de l'écran.

L* débouche un peu plus que sRGB, sRGB étant déjà un progrès très significatif par rapport à une courbe simple gamma 2.2, qu'on ne devrait plus utiliser aujourd'hui.

(Attention : ne pas confondre espace couleur sRGB et courbe tonale sRGB. Ce sont deux choses différentes, même si normalement un moniteur sRGB utilise une courbe tonale sRGB. La courbe tonale sRGB, ou L*, ou gamma 2.2 par exemple, ou DICOM, est la façon dont les niveaux sont mappés pour chaque canal RGB, depuis l'interface numérique DVI, HDMI ou DP, vers la dalle).

Tenter d'utiliser une courbe tonale ou un espace couleur autre que le natif de l'écran en calibration software, revient à introduire de fortes erreurs d'arrondi binaire surtout visibles dans les bas niveaux (marches d'escalier dans les dégradés), mais aussi dans la précision colorimétrique (par exemple apparition de légères dominantes dans une rampe de gris), à cause de la communication en 8 bits par composante RGB avec l'écran.

Les écrans à calibration hardware, permettent de maximiser la communication en 8 bits, (et donc d'utiliser les applications 8 bits de façon optimale), les erreurs d'arrondi binaire disparaissant grâce à des tables de correspondance couleur en 14 bits ou plus, internes au moniteur.

Pour résumer, avec un écran à calibration hardware, la précision d'affichage, tant en terme de niveaux que de précision colorimétrique, est pratiquement parfaite. Ce qu'on envoi dessus en 8 bits est donc affiché sans aucune erreur d'arrondi.

En calibration software, il suffit d'envoyer une rampe de gris vers l'écran, pour se rendre compte (sauf coup de chance) que le gris est loin d'être pur tout au long du dégradé.

Donc, au lieu de chercher à avoir du 30 bits en photo, il faut mieux investir dans un bon écran arts graphiques à calibration hardware, quitte à l'utiliser avec une carte vidéo qui ne supporte pas le mode 30 bits.

Cela dit, spécialement avec C1, une grosse carte vidéo pro permet de fortement accélérer les exports de fichiers jpg, grâce à la puissance du ou des GPU. A voir si vous devez exporter des centaines de fichier dans un minimum de temps.

C'est surtout là je pense l'intérêt d'une grosse carte pro, onéreuse. Bien plus que pour le support du 30 bits, en photo tout du moins.


PM

Merci oliver1010 pour ces explications.
A vous lire une bonne carte et le CG277 sont deux alliés...Logique.

;)


paul.AU

#18
Citation de: PM le Février 24, 2018, 15:25:11
A vous lire une bonne carte et le CG277 sont deux alliés...Logique.
Vous êtes sur d'avoir compris ? ::)

Ce qu'on vous dit c'est qu'une carte pro 10bits par canal apporte peu pour de l'affichage photo.
Et que le choix de la gamme de puissance et prix n'est pas à faire en fonction de l'écran, mais en fonction du besoin pour vos applications.
Prenez une carte quadro à 170balles, et si vous sentez que c'est pas suffisant, vous pourrez toujours en racheter une grosse et revendre la précédente. Mais à mon avis pour une station d'impression softproofing vous serez très très larges...

Dub

Citation de: paul.AU le Février 24, 2018, 16:58:51
Vous êtes sur d'avoir compris ? ::)

Ce qu'on vous dit c'est qu'une carte pro 10bits par canal apporte peu pour de l'affichage photo.

C'est pourtant bien ce que tu conseilles...

Citation de: paul.AU le Février 23, 2018, 20:37:05
Toute carte pro qui supporte le 3x10 bits. En gros toutes les nvidia quadro neuves en vente il me semble.

;D

PM


PM

Citation de: olivier1010 le Février 24, 2018, 15:18:09
.......
Il suffit d'utiliser un fichier de test ramp en 16 bits sous Photoshop en mode 30 bits (avec un moniteur arts graphiques connecté en Display Port pour activer réellement le 30 bits) pour s'apercevoir qu'il y a une différence notable en 8 et 10 bits. En 8 bits, on distingue des marches d'escalier, en 10 bits c'est parfaitement lisse.
........

Donc 3x10 !

J'avais donc bien compris  ;D

Merci pour vos interventions

;)

asak

8 bits 256 niveaux;  10 bits 1064
Quand on zoom à 500% ou plus sur les zones progressive on voit l effet de bande en 8bits
Quand on fait du picking ou des mesures à la pipette le 8bits c est pas très pratique.
Le cg est 10 bits avec lut 16 bits  ;)

voxpopuli

Citation de: olivier1010 le Février 24, 2018, 15:18:09
...

Merci pour ces précisions. Suite à ce fil j'avais cherché ce matin des infos sur les quadro et je suis tombé sur l'article A. Frisch
https://www.guide-gestion-des-couleurs.com/affichage-10-bits.html
Vos conclusions convergent.
Ça va rester chaud

Verso92

Citation de: olivier1010 le Février 24, 2018, 15:18:09
Il y a une différence visible avec des dégradées générés par une application (et à condition de désactiver le dithering 8 bits dans cette application). Et à condition bien sur qu'elle sache utiliser le 30 bits à l'affichage. Ce qui n'est pas le cas de LR ni de C1 qui ajoutent automatiquement un dithering 8 bits pour l'affichage et ne sont donc pas capable d'envoyer un vrai 30 bits.

Il suffit d'utiliser un fichier de test ramp en 16 bits sous Photoshop en mode 30 bits (avec un moniteur arts graphiques connecté en Display Port pour activer réellement le 30 bits) pour s'apercevoir qu'il y a une différence notable en 8 et 10 bits. En 8 bits, on distingue des marches d'escalier, en 10 bits c'est parfaitement lisse.

Photoshop en mode 30 bits ou application 3D supportant le 30 bits indispensable pour voir la différence.

C'est un sujet qui était un marronnier il y a quelques années (c'est un peu retombé depuis...).

Bien sûr qu'on voit une différence en visualisant sous Photoshop le fichier test d'AMD (RamP.psd) respectivement en 8 et 10 bits. Après, sur des vraies photos, bien malin qui verra la différence...


Ou alors, si c'est vraiment visible, il ne devrait y avoir aucune difficulté à le montrer ici.

paul.AU

Citation de: Dub le Février 24, 2018, 17:14:50
C'est pourtant bien ce que tu conseilles...

;D
Oui.
Ce que je conseille c'est une quadro d'entrée de gamme.
Petit rappel de la question peut-être ?
Citation de: PM le Février 23, 2018, 17:37:57
Pour accompagner un Eizo CG 277 finalement quelles seraient les meilleures cartes graphiques "quadro" ?

tenmangu81

Toutes les interventions vont dans le même sens : dans 99% des cas, une carte 8 bits suffira.

Si on utilise un logiciel qui peut travailler en 10 bits (Photoshop, par exemple) et qu'on fait de la retouche professionnelle, une carte 10 bits pourra être utile dans certains cas, très rares, de dégradés (tons chair par exemple).
Dans la pratique, il faut vraiment s'accrocher pour voir une différence entre 8 bits et 10 bits sur une photo, fut-elle une photo test, sur un écran calibré hardware.

Une carte nvidia 8 bits correcte est largement suffisante pour travailler en Open CL avec Capture One, par exemple, même lorsqu'on exporte de grandes quantités de fichiers images.

Maintenant, il est clair que qui peut le plus peut le moins, et que si on en a les moyens, on pourra faire face à ce 1% de cas que rencontrent les retoucheurs professionnels en achetant une carte Fire Pro ou une Quadro Pro.

Comme dit Fabrice, ce sujet a fait l'objet de nombreuses discussions il y a quelque temps, qui ont abouti aux mêmes conclusions.

paul.AU

Citation de: tenmangu81 le Février 24, 2018, 19:31:00
Maintenant, il est clair que qui peut le plus peut le moins, et que si on en a les moyens, on pourra faire face à ce 1% de cas que rencontrent les retoucheurs professionnels en achetant une carte Fire Pro ou une Quadro Pro.
S'il faut choisir entre deux cartes, autant prendre celle qui fait du 3x10bits nan ?
Une p400 c'est 170€, bien moins cher que plein de cartes dédiées jeux grand public...
A ce compte là, autant même pas acheter de carte graphique, tous les proc intel ont un chip graphique qui supportera largement un écran cg277  ;)

olivier1010

Citation de: Verso92 le Février 24, 2018, 18:51:50
C'est un sujet qui était un marronnier il y a quelques années (c'est un peu retombé depuis...).

Bien sûr qu'on voit une différence en visualisant sous Photoshop le fichier test d'AMD (RamP.psd) respectivement en 8 et 10 bits. Après, sur des vraies photos, bien malin qui verra la différence...
Ou alors, si c'est vraiment visible, il ne devrait y avoir aucune difficulté à le montrer ici.

Pour voir ce que ça donne réellement il faut essayer sur un moniteur 10 bits, calibré hardware de préférence en L* (ou sRGB), avec une application 10 bits et la connexion vidéo qui va bien, habituellement Display Port. Pas depuis un navigateur Internet, probablement limité à 8 bits, qui affiche une image jpeg de toutes façons limitée à 8 bits, et de plus sur un moniteur probablement 8 bits pour la plupart de ceux qui verront ce test.

Cela dit, comme je l'ai dit précédemment, sur des images en provenance d'un capteur photo, on ne voit pas de différences, sauf si des retouches ou des effets spéciaux (scènes 3D) ont été ajoutés sans un dithering suffisant (peut être par erreur).

Le 30 bits est alors utile pour détecter toute erreur et valider la retouche ou les effets spéciaux (ajout d'éléments 3D par exemple), afin d'être certain qu'à la projection, du banding n'apparaitra pas.

Le 10 bits, voir 12 bits en noir et blanc, est également utile en imagerie médicale, avec la courbe tonale DICOM (la plus perceptuelle de toutes, bien supérieure à L* car elle tient compte des conditions d'éclairage de la pièce) pour avoir un maximum de finesse dans le rendu des niveaux de gris. Il faut cela dit avoir un bon entrainement au niveau de la vision, et des conditions d'éclairage optimales pour lesquelles l'écran a été réglé, pour pouvoir profiter de la précision tonale de ces écrans.

Il est à noter également qu'en vidéo pro, sur du matériel broadcast, on ne tolère pas l'à peu près. C'est pour cela que le 10 bits existe en vidéo depuis bien plus longtemps qu'en photo. En vidéo pro, les moniteurs ont depuis longtemps supporté le 10 bits. Parce théoriquement, pour un spectateur doté d'un bon discernement des niveaux, 8 bits n'était pas suffisant, même dans les anciennes normes TV. Il faut dire aussi que le 10 bits est apparu en vidéo dans un environnement de codage YCbCr, 4:4:4, mais plus souvent 4:2:2, donc séparation luminance - chrominance avec un codage des niveaux de 16 à 240 au lieu de 0 à 255, plus une réduction de la résolution sur les canaux chrominance Cb et Cr pour le 4:2:2. le 10 bits était donc le bienvenu pour assurer un niveau de qualité optimal (éviter trop de pertes) à la prise de vue et en postproduction, avant passage sur des formats généralement encore plus destructeurs de qualité pour la diffusion (4:2:0 compressé par exemple).

Aujourd'hui tout cela vol un peu en éclat mais les formats supérieurs à 8 bits se généralisent avec l'avènement de la dynamique HDR (rendue possible par le OLED) et des espaces couleurs très larges. Pour la vidéo haut de gamme, la prise de vue se fait en raw, comme en photo, avec des fichier dont la résolution tonale est supérieure à 10 bits (souvent 14 bits comme en photo). Le format final peut être YCbCr et similaires, ou composantes RVB, dans un espace couleur TV Rec709 ou Rec2020 voir Rec2100, ou DCI pour le cinéma.

En fait si le 10 bits n'est pas (encore) indispensable voir utile en photo, c'est parce que d'une part la destination des images est souvent l'impression ou les moniteurs sRGB (donc des espaces couleurs et une dynamique dans lesquels le 10 bits ne s'exprime pas pleinement), et dans une moindre mesure parce que les applications phares sont encore en 8 bits (LR et C1).

Par contre en cinéma, les salles sont équipés avec des projecteurs qui supportent des espaces couleurs larges, jusque 12 bits par composante. Il faut donc, lors de la production, avoir les outils qui permettent de visualiser dans des conditions similaires pour ne pas avoir de surprises. Les applications pro 3D, ainsi que les applications de montage et retouche couleur (étalonnage) vidéo broadcast sont pratiquement toutes capables il me semble, de tirer parti d'une résolution tonale supérieure à 8 bits.

On se retrouve dans 5 à 10 ans, pour refaire le point sur le 30 bits en photo :)


asak

comme tu fais du petit format en 110 * 1800 cm et 12 couleurs avec gros fichiers; une petite carte va vite être essoufflée et t'énerver    surtout si tu travailles avec des delta serrés pour la repro  :D


tenmangu81

Citation de: olivier1010 le Février 24, 2018, 20:09:09
On se retrouve dans 5 à 10 ans, pour refaire le point sur le 30 bits en photo :)

Voilà !! Ceci dit, on espère bien !!

PM

Citation de: asak le Février 24, 2018, 20:25:50
comme tu fais du petit format en 110 * 1800 cm et 12 couleurs avec gros fichiers; une petite carte va vite être essoufflée et t'énerver    surtout si tu travailles avec des delta serrés pour la repro  :D



Merci pour vos interventions diverses.

En effet, bien vu  ;)  autant être en avance plutôt que d'avoir des regrets.
Je vise autant que possible la qualité dans mon travail et tout est bon pour y accéder, mes clients le méritent...

Verso92

#32
Citation de: olivier1010 le Février 24, 2018, 20:09:09
Pour voir ce que ça donne réellement il faut essayer sur un moniteur 10 bits, calibré hardware de préférence en L* (ou sRGB), avec une application 10 bits et la connexion vidéo qui va bien, habituellement Display Port. Pas depuis un navigateur Internet, probablement limité à 8 bits, qui affiche une image jpeg de toutes façons limitée à 8 bits, et de plus sur un moniteur probablement 8 bits pour la plupart de ceux qui verront ce test.

En ce qui me concerne :
- Nec PA241w (10 bits),
- étalonnage hardware avec SpectraView II + i1 Display Pro, en L*,
- connexion Display Port,
- Photoshop CS6 Extended configuré en 3 x 10 bits.

Citation de: olivier1010 le Février 24, 2018, 20:09:09
En fait si le 10 bits n'est pas (encore) indispensable voir utile en photo, c'est parce que d'une part la destination des images est souvent l'impression ou les moniteurs sRGB (donc des espaces couleurs et une dynamique dans lesquels le 10 bits ne s'exprime pas pleinement), et dans une moindre mesure parce que les applications phares sont encore en 8 bits (LR et C1).

De toute façon, pas de 16 bits en impression en standard sous Windows, seulement 8 bits... et personne, apparemment, pour s'en émouvoir.

olivier1010

Citation de: Verso92 le Février 24, 2018, 20:58:45
En ce qui me concerne :
- Nec PA241w (10 bits),
- étalonnage hardware avec SpectraView II + i1 Display Pro, en L*,
- connexion Display Port,
- Photoshop CS6 Extended configuré en 3 x 10 bits.

De toute façon, pas de 16 bits en impression en standard sous Windows, seulement 8 bits... et personne, apparemment, pour s'en émouvoir.

Avec certains rares RIP et imprimantes récentes l'impression 16 bits est possible sous Windows.


Verso92

Citation de: olivier1010 le Février 24, 2018, 21:05:47
Avec certains rares RIP et imprimantes récentes l'impression 16 bits est possible sous Windows.

Oui (c'est pour ça que je précisais "en standard").

tenmangu81

Citation de: Verso92 le Février 24, 2018, 20:58:45
De toute façon, pas de 16 bits en impression en standard sous Windows, seulement 8 bits... et personne, apparemment, pour s'en émouvoir.

??? Sous Mac OSX, on peut imprimer en 16 bits avec Photoshop CS6.
Ceci dit, malgré mes méticuleuses observations, je n'ai pas pu détecter de différences entre une impression 16 bits et une impression 8 bits en A3+.

Verso92

Citation de: tenmangu81 le Février 24, 2018, 21:52:48
??? Sous Mac OSX, on peut imprimer en 16 bits avec Photoshop CS6.

Oui, sous Mac. Pas sous Windows...

(mais il faut le savoir, hein !)

Citation de: tenmangu81 le Février 24, 2018, 21:52:48
Ceci dit, malgré mes méticuleuses observations, je n'ai pas pu détecter de différences entre une impression 16 bits et une impression 8 bits en A3+.

Ça ne me surprend pas plus que ça...

Phil_C

L'intérêt de la Quadro, c'est le 10 bits, mais en ce qui concerne l'acceleration GPU et le nombre de processeurs CUDA, les cartes GTX 10xx et au delà supplantent toutes les quadros, qui sont en plus 4 à 5 fois plus chères https://www.videocardbenchmark.net/directCompute.html
Peut être faut t'il acheter la moins chère et la plus basique des Quadro uniquement pour le 3*10 bits et une carte GTX pour les calculs OpenCL.
A noter que les cartes GTX1070 et 1080 sont 3*10 bits en natif, mais que le driver bloque cette possibilité pour forcer l'achat d'une quadro. Il y a fort à parier que ce verrouillage sautera un jour, le marché des quadros est beaucoup trop restraint pour justifier les investissements en R&D necessaires pour coller aux filières de production des GTX (16 nm).

asak

Citation de: PM le Février 24, 2018, 20:57:31
Merci pour vos interventions diverses.

En effet, bien vu  ;)  autant être en avance plutôt que d'avoir des regrets.
Je vise autant que possible la qualité dans mon travail et tout est bon pour y accéder, mes clients le méritent...

En effet d autant plus que ton traceur est en 16 bits il me semble  ;)

olivier1010

Citation de: tenmangu81 le Février 24, 2018, 21:52:48
??? Sous Mac OSX, on peut imprimer en 16 bits avec Photoshop CS6.
Ceci dit, malgré mes méticuleuses observations, je n'ai pas pu détecter de différences entre une impression 16 bits et une impression 8 bits en A3+.

En ce qui concerne l'impression, comparer le 8 bits et le 16 bits pose diverses problèmes :

- il faut un contraste suffisant pour que l'œil puisse détecter une différence. Donc papiers brillants, encres noires très denses, et éclairage puissant du tirage. Ce n'est pas le cas la plupart du temps, sauf peut être certains tirages noir et blancs avec des encres spéciales, dans des conditions d'éclairage intense.
En médecine certaines boites à lumières pour observer les films radio disposent d'un rétro éclairage très puissant. Etant donné que le densité de noir sur ces films radio peut être très élevée, la dynamique est nettement plus élevée que sur un tirage. Il est donc probablement beaucoup plus facile de voir une différence entre impression 8bits et 10 bits ou plus. Et dans ce cas l'impression 16 bits se justifie pleinement.

- imprimer en 16 bits ne veut pas forcément dire que la trame d'impression est réellement 16 bits. D'ailleurs elle ne l'est probablement jamais, 10 bits étant largement suffisant dans tous les cas, pour une trame d'impression destinée à un tirage.
Je soupçonne certains drivers de n'être 16 bits que dans la façon dont ils traitent les données, c'est à dire qu'ils sont capable de transmettre les données en 16 bits jusqu'à l'imprimante, mais pas forcément d'imprimer avec une vrai trame 16 bits. Cela dit, il est probable que transmettre les données à l'imprimante en 16 bits, puisse apporter une légère amélioration, si l'imprimante dispose d'un algorithme de dithering sachant tirer partie des données 16 bits.

Pour faire une vrai comparaison, il faudrait utiliser un RIP attaquant l'imprimante en mode 1 bit, afin que la trame soit totalement gérée par le RIP. Certains RIP peuvent le faire, y compris, récemment avec une vrai trame "16 bits". L'intérêt est cela dit limité pour des tirages papier jet d'encre, car selon des (nombreux) tests que j'ai réalisé, utiliser une imprimante jet d'encre dans ces conditions ne délivre pratiquement jamais des résultats aussi satisfaisants que lors de l'utilisation du mode RGB, et parfois de loin. Et cela demande une grosse quantité de travail pour optimiser les réglages de trame et les profils ICC multi-encres.

D'autre part il y a un inconvénient à utiliser des trames dont la gamme tonale est supérieure à 8 bits : l'augmentation du nombre de niveaux disponibles se fait au détriment de la résolution (argument à mettre entre parenthèse, car avec les trames aléatoires la relation entre gamme tonale et résolution n'est pas si marquée qu'avec une trame classique.


tenmangu81

Merci Olivier pour ces utiles précisions (et pour les précédentes !!).

olivier1010

#41
Citation de: tenmangu81 le Février 25, 2018, 14:17:34
Merci Olivier pour ces utiles précisions (et pour les précédentes !!).

:)

petite correction de mon dernier message :

L'augmentation du nombre de niveaux disponibles (valeurs tonales ou nuances) dans une trame se fait au détriment de la linéature de trame (en lpi), et non pas de la résolution (en dpi).

Tout du moins pour une trame classique à motifs géométriques pour laquelle il existe une relation directe mathématique simple entre nombre de niveaux et linéature de trame. Pour une trame stochastique ou hybride, la relation n'est pas aussi évidente et dépend des algorithmes utilisés. Ces trames plus modernes permettent d'obtenir, en fonction de l'efficacité des algorithmes utilisés, une "linéature" plus fine à nombre de niveaux identiques, par rapport à une trame à motifs géométriques. J'ai pris soin de mettre le terme "linéature" entre guillemets car on ne peut plus vraiment parler de linéature pour une trame stochastique.

Mais dans tous les cas la résolution est fixe et dépend uniquement de la taille et de l'écartement entre les buses de la tête d'impression.

Il faut garder en tête, que l'impression jet d'encre au final n'est ni 8 bits ni 16 bits, mais 1 bit par couleur d'encre * : une goutte d'encre est déposée ou non. C'est la façon dont sont déposées les gouttes d'encre, leur écartement, leur position et leur nombre, qui permet, par un effet de juxtaposition, de donner l'impression visuelle d'une gamme de tons différents de la couleur réelle de l'encre.
 
* en réalité, l'impression sur une jet d'encre moderne à taille de goutte variable se fait avec un bit supplémentaire, afin de permettre la sélection de la taille de goutte. Certains RIP utilisés en mode trame permettent de gérer cette taille de goutte.

 
Les détails de la relation entre linéature de trame, taille de point de trame, et nombre de niveaux tonals simulés :

http://www.ericfreelance.com/fiches.php?1.1.le-point-et-la-lineature-de-trame

http://www.trame-aleatoire.fr/articles/difference-entre-dpi-et-lpi-180

"La finesse de la résolution des périphériques de sortie combinée à la finesse de la linéature de trame aura donc une conséquence sur le nombre de nuances restituées sur le document produit."

Pour une résolution donnée, plus la trame est fine, plus le nombre de nuances (ou valeurs tonales, ou niveaux) restituées est faible.

8 bits = 256 nuances

10 bits = 1024 nuances

16 bits = 65 536 nuances.

On voit bien qu'une trame 16 bits (en réalité totalement inutile pour l'impression) nécessiterait une taille de point bien trop fine pour être possible techniquement, à moins d'accepter une linéature de trame très grossière. 9 ou 10 bits est probablement un maximum qu'il n'est pas souhaitable de dépasser, tant sur le plan technique que sur le plan des possibilités de discernement des niveaux par la vision humaine.

Donc le terme "impression 16 bits" seul ne veut rien dire, s'il n'y a pas plus de détails fournis sur la méthode utilisée pour définir la trame d'impression.

;)

tenmangu81

Citation de: olivier1010 le Février 25, 2018, 17:00:12
Donc le terme "impression 16 bits" seul ne veut rien dire, s'il n'y a pas plus de détails fournis sur la méthode utilisée pour définir la trame d'impression.

Il s'agit, en fait, de l'envoi des données à l'imprimante (en 16 bits ou en 8 bits), et non de l'impression.

Verso92

Citation de: tenmangu81 le Février 25, 2018, 18:10:25
Il s'agit, en fait, de l'envoi des données à l'imprimante (en 16 bits ou en 8 bits), et non de l'impression.

C'était clair, mais finalement, il n'est peut-être pas inutile de préciser...

asak

Donc le terme "impression 16 bits" seul ne veut rien dire, s'il n'y a pas plus de détails fournis sur la méthode utilisée pour définir la trame d'impression.
Tu t'emballes  ;)
Faut pas mélanger; technologie interne constructeur et système normé
par exemple photoshop fichier 8, 16, 32 bits,  aussi il affiche toujours 256 niveaux au lieux de 1024 c'est du bidouillage interne
Tout comme espace de calcul et espace de travail ou même conversion et extrapolation
Ces machines d'une certaine façon c'est du grand public pour une utilisation pro et c'est pas de l'imprimerie .
8 ou 16 bits ?  3 ou 12 couleurs ? relatif ou perceptif ? c'est une question de compromis technologique avec leur boite noire ou seul le résultat compte.
Extrait doc canon https://www.canon.fr/about_us/press_centre/press_releases/business_solutions_news/fr_2010_04_23_imageprograf.aspx         
produire une gamme de couleurs étendue de plus de 20 % par rapport aux précédents modèles, avec à la clé une reproduction chromatique de qualité supérieure.
Les nouvelles encres LUCIA EX permettent une production d'impression de meilleure qualité avec des noirs plus intenses et plus nets, ainsi que des dégradés de couleurs extrêmement riches. Il est en outre possible de restituer les plus infimes détails dans les zones sombres des photographies.




PM

Merci pour vos interventions.

Cela se complique  ;D
Le choix idéal n'est pas aussi simple qu'il n'y parait !

;)

tenmangu81

Pour l'impression, les espaces couleur des imprimantes étant relativement limités, travailler avec une carte 8 bits me semble suffisant.
Les cartes Pro en 10 bits ne seront utiles que dans les rares cas que j'ai signalés plus haut.
Dans quelques années, le 10 bits sera la norme, mais le matériel dont on dispose aujourd'hui aura aussi fait son temps  :D

olivier1010

Citation de: asak le Février 25, 2018, 19:00:34
Donc le terme "impression 16 bits" seul ne veut rien dire, s'il n'y a pas plus de détails fournis sur la méthode utilisée pour définir la trame d'impression.
Tu t'emballes  ;)
Faut pas mélanger; technologie interne constructeur et système normé
par exemple photoshop fichier 8, 16, 32 bits,  aussi il affiche toujours 256 niveaux au lieux de 1024 c'est du bidouillage interne
Tout comme espace de calcul et espace de travail ou même conversion et extrapolation
Ces machines d'une certaine façon c'est du grand public pour une utilisation pro et c'est pas de l'imprimerie .
8 ou 16 bits ?  3 ou 12 couleurs ? relatif ou perceptif ? c'est une question de compromis technologique avec leur boite noire ou seul le résultat compte.
Extrait doc canon https://www.canon.fr/about_us/press_centre/press_releases/business_solutions_news/fr_2010_04_23_imageprograf.aspx        
produire une gamme de couleurs étendue de plus de 20 % par rapport aux précédents modèles, avec à la clé une reproduction chromatique de qualité supérieure.
Les nouvelles encres LUCIA EX permettent une production d'impression de meilleure qualité avec des noirs plus intenses et plus nets, ainsi que des dégradés de couleurs extrêmement riches. Il est en outre possible de restituer les plus infimes détails dans les zones sombres des photographies.



Pro ou pas pro, une imprimante jet d'encre fonctionne de la même façon. Sauf que les imprimantes pro donnent accès à l'impression 1 bit (half tone). Les imprimantes grand public sont généralement limitées au mode RVB.


Au final, quelque soit l'imprimante, des données 1 bit pour chaque couleur d'encre sont envoyées à la tête d'impression, avec en amont des données qui arrivent la plupart du temps sur 3 fois 8 bits en trichromie RVB.

Le passage de 3 fois 8 bits à x fois 1 bit s'opère par une séparation couleur plus un tramage. La conversion se fait soit dans l'imprimante et son driver d'impression, soit dans un RIP.

Pour les encres light, il ne s'agit pas d'une séparation à proprement parler, mais d'une sélection / mélange des encres par un système de courbes de mélange.


En imprimerie offset c'est la même chose. Sauf que la tête d'impression est remplacée par autant de plaques 1 bit que de couleurs d'impression.

Les imprimantes jet d'encre pro permettent de reproduire exactement ce qui ce passe en imprimerie, depuis un RIP, c'est à dire qu'on peut leur envoyer des données séparées et tramées en 1 bit par couleur. On a donc accès à tous les réglages qu'on peut avoir en imprimerie : type et linéature de trame, limites d'encrage global et limites d'encrage par couleur, calibration des couleurs par un profil ICC multi canaux.

Ce mode de fonctionnement permet de simuler sur une jet d'encre jusqu'à la trame d'impression offset. Il est appelé mode "HTM" ou "Half Tone Module"

Par exemple pour une Epson 7900 dotée de 10 cartouches d'encres qui fonctionnent en simultané, voici comment se décompose l'impression en passant par un RIP en mode 1 bit :

- envoi des données, généralement 8 ou 16 bits RVB, normées avec un profil couleur ICC, vers le rip

- séparation CMJNOV (cyan, magenta, jaune, noir, orange , vert) dans le RIP par un profil ICC multi canaux. Des limites d'encrage initiales sont appliquées à ce moment par le profil ICC.

- application des limites d'encrage hard

- application des courbes de mélange des encres light

- tramage 1 bit avec gestion ou non de la taille de goutte.

- envoi des données 1 bit par couleur d'encre vers l'imprimante



Pour une imprimante grand public, c'est la même chose. Sauf que tout est géré dans l'imprimante avec son driver, qui reçoivent des données RVB 8 bits, et parfois, rarement, 16 bits. C'est le mode de fonctionnement dit RVB.

C'est aussi le mode le plus performant en terme de qualité d'impression, car la séparation / mélange light / limites des encrages / tramage / contrôle de taille de goutte sont réalisés par des algorithmes (très) optimisés par le fabriquant de l'imprimante. Algorithmes que les RIP ne connaissent pas. Ils sont plus basiques à ce niveau parce que destinés à l'origine pour l'impression offset.

C'est pour cette raison que les RIP disposent aussi, pour le jet d'encre, du mode RVB. Dans ce cas, le RIP utilise les drivers RVB de l'imprimante et donc ne s'occupe plus de toute la partie séparation / contrôle des encrages et tramage. Ce n'est donc plus vraiment un RIP, seule sa partie gestion des impressions / conversion vectoriel vers bitmap /calibration couleur ICC / imposition est utilisée.

Les RIP entrée de gamme (ou dédiés à la photo) ne disposent d'ailleurs que de ce mode RVB, en jet d'encre. Ce qui est largement suffisant, et fortement préférable, pour l'impression photo.
Le mode HTM étant plus destiné au proofing offset ou pour l'utilisation d'encres spéciales, par exemple en noir et blanc, ou pour des encres tons directs ou blanches, ou utiliser des couleurs complémentaires différentes de celles prévues par le fabriquant de l'imprimante.

Epson n'aime pas ces utilisations détournées d'ailleurs, et a fait en sorte que l'utilisation de couleurs d'encres autres que celles d'origine ne soit plus possible sur certains RIP commerciaux.


asak

On ne va pas compliquer l affaire puisque la plaquette canon est hors "rip".
A partir du moment ou on est avec des  couleurs saturées et que le gamut dépasse allégrement le rvb et que les surfaces saturée en dégradé soit suffisamment grande on ne peut pas echapper au 16 bits puique on a que deux choix possible.8 ou 16 pour donner l info
a l'imprimante Mais je n évoque pas la gestion de la tête