Rumeur de Nikon Z 61 Mpixels / 16 bits

Démarré par Mistral75, Septembre 19, 2019, 18:01:50

« précédent - suivant »

seba

Citation de: seba le Septembre 22, 2019, 13:47:00
Demain je posterai 3 images très démonstratives.

Voici 3 dessins d'un immeuble, vu d'en bas, du milieu et d'en haut.
Pour regarder chaque image, l'horizon doit être à hauteur d'œil.
Distance œil-image : 0,83x le petit côté.
Alors je sais, on va me dire que c'est impossible à faire, etc...
Non seulement c'est possible mais en plus c'est une belle démonstration.
Et d'un point de vue satisfaction intellectuelle, c'est toujours intéressant de le savoir.

jenga

#76
Citation de: seba le Septembre 23, 2019, 08:44:47
Voici 3 dessins d'un immeuble, vu d'en bas, du milieu et d'en haut.
Pour regarder chaque image, l'horizon doit être à hauteur d'œil.
Distance œil-image : 0,83x le petit côté.
Alors je sais, on va me dire que c'est impossible à faire, etc...
Non seulement c'est possible mais en plus c'est une belle démonstration.
Et d'un point de vue satisfaction intellectuelle, c'est toujours intéressant de le savoir.
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.


Bernard2

Citation de: jenga le Septembre 23, 2019, 12:47:37
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.
C'est évident

seba

Citation de: jenga le Septembre 23, 2019, 12:47:37
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.

Non pas du tout. Je n'ai pas dit que le regard est à l'horizontale mais que l'horizon est à hauteur des yeux.
Et le dessin de gauche, il peut être présenté verticalement, horizon à hauteur des yeux, et en regardant vers le haut : les verticales sembleront également convergentes vers le haut.
Et pour le dessin de droite, horizon à hauteur des yeux, en regardant vers le bas, les verticales sembleront également convergentes vers le bas.

seba

Citation de: seba le Septembre 23, 2019, 13:05:04
Non pas du tout. Je n'ai pas dit que le regard est à l'horizontale mais que l'horizon est à hauteur des yeux.
Et le dessin de gauche, il peut être présenté verticalement, horizon à hauteur des yeux, et en regardant vers le haut : les verticales sembleront également convergentes vers le haut.

Comme ceci.

seba

Citation de: jenga le Septembre 23, 2019, 12:47:37
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.

Ce que tu opposes, ce sont les images A et B.
Mais pour peu que la présentation soit appropriée à une restitution correcte de la perspective, le résultat sera le même pour l'observateur.
Pour l'image A, les verticales sont parallèles mais l'observateur regarde vers le haut, elles sembleront convergentes.
Pour l'image B, les verticales sont convergentes et c'est bien ce que verra l'observateur quand il regarde l'image de face.
L'objet, l'image A et l'image B sont tous trois confondus et du point de vue de l'observateur on verra la même chose.

Sebmansoros

Oui bon je vais aller pendre un cachet d'aspirine. :P

seba

il t'en faudra un deuxième pour la suite alors.
Si l'observateur regarde horizontalement, cette fois les verticales de l'immeuble ainsi que de l'image A sembleront bien verticales...et celles de l'image B aussi.

Mais je vais préparer une illustration de tout ça en photos, ça va prendre un peu de temps.

jenga


jenga

Citation de: Mistral75 le Septembre 19, 2019, 18:01:50
... Nikon Z dont le capteur serait doté de 60,7 Mpixels (9.552 x 6.364) et dont les CAN seraient capables d'échantillonner sur 16 bits :
Je suis curieux de savoir dans quelles conditions les bits supplémentaires peuvent contenir autre chose que du bruit.

Un facteur déterminant est la capacité des photosites, rapportée à l'échelle de numérisation. Pour des 24x36  / 45 Mpx de technologie actuelle (D850, Z7), les photosites ont une capacité de 60000 électrons environ, numérisés sur 14 bits soit 0..16383. Cela fait environ 4 électrons par unité de numérisation.

Ce rapport réduit d'un facteur 4 l'impact du bruit photonique généré dans les photosites (bruit intrinsèque au rayonnement lumineux, l'APN n'y est pour rien) et d'une partie des bruits ajoutés par l'APN en aval des photosites.
Le bruit photonique, égal à la racine carrée du signal lumineux, est prépondérant dans les utilisations courantes; les bruits de l'APN deviennent influents à très faible niveau de remplissage des photosites et donc très faible bruit photonique (typiquement, remplissage au 1/1000 de la capacité dans le cas des Z7 / D850).

La spec du Z7 ou du D850 (60000 électrons, numérisation 14 bits) est  cohérente, mais tout juste: à très faible remplissage des photosites, donc très faible bruit photonique, le bit 12 devient significatif (à plus fort remplissage il est noyé dans le bruit photonique); le 14 est noyé dans les bruits ajoutés par l'APN, le 13 est à la limite.

Numériser le même capteur sur 16 bits ne ferait donc qu'ajouter 2 bits de bruit. Pour gagner 2 bits significatifs (soit un facteur 4 sur le bruit), il faut donc que le nouveau capteur:

  • génère 4 fois moins de bruit qu'un D850 dans les étages précédant le convertisseur; le bruit ramené au nombre d'électrons se réduit lentement avec le progrès technologique, de moins en moins vite à mesure qu'on tend vers des niveaux très bas; gagner un facteur 4 d'un coup semble vraiment difficile
  • présente le même rapport que le D850 / Z7 entre la capacité des photosites et l'échelle de conversion, pour que l'impact du bruit photonique soit identique sur les bits 14 15 et 16 de ce nouveau capteur à ce qu'il est sur les bits 12 13 et 14 du D850 / Z7; cela implique de multiplier par 4 la capacité des photosites ; or, cette capacité évolue lentement avec la technologie, et à technologie identique elle est proportionnelle à la surface des sites; donc, sauf révolution technologique, les sites du Z 61 Mpx auront une capacité plutôt inférieure à celle des Z7 / D850, et non 4 fois plus comme il le faudrait pour être cohérent avec une numérisation sur16 bits

jenga

#85
Citation de: Stepbystep le Septembre 24, 2019, 15:06:56
16 bits permet d'enregistrer 65 536 valeurs et 14 bits sur 16 384. Soit effectivement 4 fois plus sur une même largeur d'onde, ce qui permettra des dégradés plus fins. Le bruit n'aura d'effet que dans des conditions de très basses lumières, là où finalement peu de bits seront exploitables.
La partie que j'ai soulignée dans ta réponse est intuitive, mais elle ne tient compte que du bruit généré par l'APN, qui est en effet très faible. Mais il y a en plus le bruit photonique, qui est égal à la racine carrée du signal lumineux, et constitue la principale limitation dans la plupart des cas.

Je laisse de côté le coefficient de conversion photon/électron, qui est relativement constant, pour raisonner sur les électrons collectés. Pour un 24x36 performant assez fortement pixellisé (D850), la capacité maximale du photosite est 61000 électrons; quand il est plein, le bruit photonique est égal à racine(61000) = 247. Cela montre que beaucoup de bits de poids faibles sont noyés dans le bruit photonique, et on est à pleine lumière.

C'est uniquement à très bas niveau de lumière que les bits de poids faibles peuvent devenir significatifs. Supposons que le codage revienne à compter tous les électrons, ce qui est serait le cas pour un Z16 bits (soit 0..65535) avec des photosites de capacité 60000 comme ceux du Z7:

  • Quand le signal vaut 64, soit le millième de la saturation, le bruit photonique vaut 8: les 3 bits faibles sont dans le bruit, les 3 bits juste au-dessus décrivent la partie utile (non bruitée) du signal.
  • Quand le signal vaut 16, le bruit photonique vaut 4; à ce stade le bruit de lecture, disons 2 électrons, n'est plus négligeable: les deux bits faibles sont dans le bruit, le troisième n'est pas beaucoup plus fiable. La partie utile du signal est codée sur les 2 bits juste au-dessus.
  • Quand le signal vaut 4, le bruit photonique vaut encore 2 et il s'y ajoute le bruit de l'APN, autour de 2 également. Le signal est complètement noyé dans le bruit.

Cela montre qu'avec un codage revenant à compter tous les électrons, les bits de poids faibles ne peuvent jamais être significatifs, pour des raisons physiques.

On ne peut rendre ces bits significatifs que si la capacité du photosite est plus grande que l'étendue de codage, par exemple d'un facteur 4 sur le D850 (61000 électrons pour un codage 0..16383).
Cela revient en fait à laisser tomber les 2 bits de poids faibles de la conversion 16 bits décrite dans les puces ci-dessus.

C'est pourquoi un codage sur 16 bits nécessite, pour apporter autre chose que du bruit, des photosites de capacité 4 fois plus grande qu'un codage 14 bits.

Approche directe, par les mesures DXO
Les smartphones, compacts, m4/3, APS-C, 24x36, MF, ont des photosites de plus en plus gros (à pixellisation identique) et ont des performances (SNR, dynamique) croissantes.

En fait, ce n'est pas directement la surface des photosites qui compte, mais leur capacité. C'est pourquoi les plus gros photosites ne sont pas forcément les moins sensibles au bruit. Par exemple, si je compare les SNR (DXO mark) de 3 capteurs 24x36 classés par taille de photosite croissante:


  • Canon 5DSR: 50 Mpx,  capacité 34000 électrons,  SNR 44,7 dB
  • Nikon D850:   45 Mpx,  capacité 61000 électrons,  SNR 47,1 dB
  • Sony A7Riii:   42 Mpx,  capacité 54000 électrons,  SNR 46,5 dB

On voit que les SNR sont directement liés à la capacité des photosites, et non à leur surface: les plus gros photosites sont ceux de Sony, mais le D850 est légèrement devant en SNR.
Le 5DSR, avec ses photosites de capacité moitié moindre que ceux du D850 (malgré seulement 10% d'écart en surface) est loin derrière en SNR.

D'ailleurs, le SNR étant égal à: 20 log10 (signal/bruit), les SNR mesurés par DXO n'ont rien d'étonnant:
5DSR: capacité photosite 34000, donc bruit = racine(34000) = 184, donc rapport signal/bruit= 34000/184=184. En db= 20 log10(184)= 45, pour une mesure DXO de 44,7
D850: capacité photosite 61000, donc bruit = racine(61000) = 247, donc rapport signal/bruit= 61000/247=247. En db= 20 log10(247)= 47,8, pour une mesure DXO de 47,1

La capacité du photosite est donc le paramètre clé pour déterminer le bruit (et donc l'étendue de codage utile), tant qu'on n'est pas dans les signaux très faibles.

stringway

J'ai du mal à m'endormir si je ne peux pas compter les photons...  O0

Verso92

Citation de: Stepbystep le Septembre 24, 2019, 23:40:18
C'est comme lorsque tu convertis un signal audio en numérique, plus ta fréquence d'échantillonnage est élevée, plus la version numérique sera précise et fidèle.

Heu... non.

jenga

Citation de: Stepbystep le Septembre 25, 2019, 00:41:44
Pour une source lumineuse constante et régulière, le nombre de photons collectés pendant un même intervalle de temps n'est jamais le même et va varier de manière aléatoire autour d'une valeur moyenne.

Donc, on ne compte pas les photons.

Bien sûr que si, c'est le principe même de la photo numérique. L'utilisateur a besoin de récupérer des nombres représentant l'éclairement, donc la quantité de photons reçus. Les photons étant individuels et séparés les uns des autres, connaître leur quantité est du comptage.

A éclairage constant et spatialement homogène, produisant en moyenne N photons par photosite, le nombre de photons collectés fluctue avec un écart type= racine(N). Cela signifie que si N vaut par exemple 100 photons en moyenne, 68% des photosites  vont collecter entre 90 et 110 photons, les  32% restants vont collecter moins de 90 ou plus de 110 photons.

Le tension mesurée en sortie de photosite puis convertie en nombre 14 ou 16 bits est proportionnelle au nombre de photons collectés par le photosite, sinon la photo numérique ne serait pas possible. Par exemple, pour un D850, la valeur raw 8192 à sensibilité native indique que le photosite a accumulé 30500 électrons,  et a donc reçu 69300 photons (l'efficacité quantique étant 0.44 pour le D850).
Cela signifie que l'éclairement "réel" de ce photosite (hors bruit photonique) est à 68% de probabilité compris entre 69000 et 69600.

Donc, oui, on  compte les électrons, ce qui revient à compter les photons reçus en tenant compte du facteur d'efficacité quantique, et ce nombre est affecté d'un bruit d'origine physique, hors APN.

D'où la nécessité détaillée dans mon post précédent d'augmenter le nombre de photons collectés, donc la capacité des photosites, pour améliorer le rapport signal/bruit de façon cohérente avec l'augmentation du nombre de bits utilisés pour le codage.

jenga

#89
Citation de: Stepbystep le Septembre 24, 2019, 23:40:18
Précision, si on rajoute 2 bits, ce ne sont pas des bits de poids faible, mais bien de poids fort.
En fait, ça ne change rien.

(mais tu affirmais dans ton post #100 qu'ajouter des bits "permettra des dégradés plus fins", ce qui indiquait bien l'idée d'affiner le codage et donc d'ajouter des bits de poids faibles, et j'ai expliqué que cela nécessitait d'améliorer le rapport S/B photonique, donc d'augmenter la capacité des photosites)

Tu indiques maintenant que ce sont des bits de poids fort. D'accord, ça ne change rien comme indiqué plus haut.
Puisque les bits de poids 0 à 13 ne changent pas de signification, la valeur 16383 correspond toujours à 60000 électrons (cas du Z7), mais maintenant on peut compter jusqu'à 65535.
Pour que les valeurs allant de 16384 à 65535 soient atteintes, il faut donc multiplier par 4 la capacité du photosite, en passant de 60000 à 240000, ce que je dis depuis le début.

jenga

Citation de: stringway le Septembre 25, 2019, 02:02:22
J'ai du mal à m'endormir si je ne peux pas compter les photons...  O0
Du coup, tu t'endors après un temps aléatoire... Mais c'est mieux que les médocs.

restoc

Citation de: Stepbystep le Septembre 25, 2019, 00:41:44
Une autre précision, la nature quantique de la lumière fait que le nombre de photons suit une loi de Poisson. Pour une source lumineuse constante et régulière, le nombre de photons collectés pendant un même intervalle de temps n'est jamais le même et va varier de manière aléatoire autour d'une valeur moyenne.

Donc, on ne compte pas les photons.

C'est l'erreur de Junga de commencer son raisonnement en comptant le nb de photons alors que la photo numérique ( donc la quantification ) ne commence qu'à partir du moment où les photons sont transformés en volts, pour faire simple. D'ailleurs les mesureurs (!) DXO, Claff etc ne prennent en compte que le bruit d'instrumentation ( de l'appareil)  globalisé sous le nom de bruit de lecture.

Le nb de photons est heureusement largement excédentaires dans la vie courante et pour la photo courante sinon quelle galère ce serait pour l'oeil et la photo n'existerait pas depuis Nicephore. Tant qu'on n'atteint pas des vitesses d'obturation proche de la vitesse de la lumière, le temps d'intégration de l'oeil ou de l'appareil fait que ( merci Poisson) on somme/moyenne  le maximum de signal et donc on ne perçoit pas de bruit.  L'approche photonique du bruit en photo ou vision courante a finalement peu d'impact.

En fait bien sûr Junga a raison de comparer des quantités d'énergie potentielle en fonction de la surface du photosite et de son collecteur( microlentilles), il faudrait rajouter profondeur des puits et autres caractériqstiques tecniques des couches du capteur qui peuvent conserver le maximum de photons jusqu'à la diode ou au contraire en bouffer. En ce sens comparer seulement des surfaces de photosites n'est juste un dégrossissement, mais seule une évaluation complète du rendement ( voir B Claff) qui permet vraiment de comparer des technos de capteurs... ce doint on se tape en photo : seul le résultat final de toutes les combinaisons des technologies seront à évaluer par le photographe.

Il en va évidemment autrement pour les photos scientifiques qui manquent de lumière : trés forts grossisement sous microscope, vraie astro etc.

Une autre confusion qui a la vie dure et à tordre le cou : les bits de poids faible ( 13, 14 15, 16 etc) ne correspondent absolument pas aux basses lumières. Ils modulent tous les bits dans l'intervalle de dynamique !!!! Un bruit peut être blanc ( sur tout l'intervalle de la quantification par analogie avec le son) ou "coloré) n'intervenir que sur une bande spectrale, mais aussi un saut de quantification ( striping, banding etc)  Et ce ne sont pas forcémment les bits de poids faible qui sont alétés ,. DAns le cas de la photo si c'est par ex le bit 7 sur 14  correspondant à la valeur 128 ( et pas 8192), l'impact sera visuellement trés fort alors que sur le bit 13 il faudra déjà un traitement trés drastique pour extraire le niveau bruité.

Effectivement l'augmentation de la finesse du pas de quantification par ex de 14 à 16 bits n'est pas une mesure de qualité globale comme le souligne Verso.  Comme dans le son on peut être capable de numériser 25 Khz ... et avoir un affreux ronflement en BF. Passer de 12, 14  à 16 bits n'est donc absolument pas une garantie de qualité finale de la photo, si on prend ce seul critère isolément. On peut surtout dire l'inverse : il vaut mieux un capteur  trés propre sur 10 ou 12 bits seulement  qu'un capteur attrape tout pour le marketing sur 16 bits : seus les bits de 0 à 12 sont réellement prégnants/significatifs dans le résultat final d'une photo. Les meilleures photos Net B n'ont guère que 6 ou 8 bits.
Si on veut donner du crédit au passage à 16 bits , il faut absolument d'autres conditions : que le bruit de lecture devienne trés faible ou que la dynamique de la photo devienne énorme. Il faudrait faire le calcul mais il faudrait passer à des dynamiques de 20 Il pour commencer à toucher le bénéfice du 16 bits et cei avec quelques  conditions péremptoires: travailler obligatoirement à l'iso natif,  avec un éclairement donnant cette dynamique et avec  une scène réfléchissant cette dynamique.

Enfin ne pas oublier que pour bénéficier du 16 bits il faudra que l'ensemble de la chaîne ( Et de la pratique de PT !!) conservent 16 bits de précision. On peut en douter grave !!

Pour moi le 16 bits ne servira guère en premier lieu d'argument marketing et ensuite au mieux aux scientifiques et éventuellement astos, mais dans la vie courante qui peut prouver qu'il exploite déjà le bit 13 et 14 ?


Verso92

Citation de: Stepbystep le Septembre 25, 2019, 10:45:23
Regarde un exemple sur les dégradés de couleurs en 8 bits et 16 bits.

Tu ne parlais pas de quantification, mais d'échantillonnage (ce n'est pas la même chose)...


Et même en terme de quantification, pour arriver à distinguer une différence entre un dégradé 8 bits et un dégradé 16 bits, il faut se lever de bonne heure (pour d'évidentes raisons que je te laisse le soin de deviner...) !

Verso92

#93
Citation de: Stepbystep le Septembre 25, 2019, 10:58:07
On joue sur les mots.

Non.

Échantillonnage et quantification, ce n'est pas la même chose.


L'échantillonnage, c'est la fréquence (temporelle ou spatiale) à laquelle le signal est numérisé (pour faire court). La quantification, c'est la finesse (en nombre de bits, toujours pour faire court) de l'échantillon.

Citation de: Stepbystep le Septembre 25, 2019, 10:58:07
Pour le reste, je ne suis pas d'accord.

Il ne s'agit pas d'être d'accord ou pas... si tu vois une différence, tu dois être capable de nous la montrer.


Les 16 bits (ou 12, ou 14), c'est pour avoir une "réserve" lors des calculs effectués lors du développement de l'image (erreurs d'arrondis et de troncatures).

Sur une image finalisée, bien malin qui pourra distinguer un TIFF 8 bits d'un TIFF 16 bits, par exemple...

Verso92

Citation de: Stepbystep le Septembre 25, 2019, 11:13:10
Je suis d'accord sur la terminologie, mais en fait ça n'a aucune importance.

Si tu le dis...

Citation de: Stepbystep le Septembre 25, 2019, 11:13:10
Ben si, la photo a connu bien des supports au cours de son histoire et ils continuent à évoluer. Sans compter que travailler sur du vrai 16 bits permettra des retouches plus fines. C'est ce qu'on fait déjà en travaillant dans un espace 16 bits avec des images en 14 bits.

N'oublie pas que depuis de très nombreuses années, les EXPEED calculent déjà sur une largeur de 16 bits (cf documentation Nikon). Passer de 14 à 16 bits de quantification n'aurait d'intérêt, comme déjà expliqué, que si ces deux bits supplémentaires contiennent autre chose que du bruit.

Verso92

Citation de: Stepbystep le Septembre 25, 2019, 12:24:11
Tu confonds conversion A/N et et nombre de bits utilisés pour le traitement d'image.

Ne sois pas inquiet, je ne confonds rien du tout.

Citation de: Stepbystep le Septembre 25, 2019, 12:24:11
Le fait de passer de 16 384 valeurs à 65 536 valeurs ne génère pas plus de bruit.

Je n'ai jamais écrit ça... relis plus attentivement.

Verso92

Citation de: Stepbystep le Septembre 25, 2019, 12:55:04
Pourtant utiliser 2 bits supplémentaires, c'est passer de 16 384 valeurs à 65 536 valeurs.

Et si c'est deux bits supplémentaires ne contiennent que du bruit (cas le plus probable), tu n'auras pas d'information en plus (pas de dégradés plus subtils, etc), comme expliqué précédemment.

Verso92

Citation de: Stepbystep le Septembre 25, 2019, 13:15:22
C'est totalement faux de dire ça, relis mon exemple sur la plage de 0 à 100 volts.

Et que cherches-tu à démontrer, avec ton exemple ?

Citation de: Stepbystep le Septembre 24, 2019, 23:40:18
Précision, si on rajoute 2 bits, ce ne sont pas des bits de poids faible, mais bien de poids fort.

Je l'avais loupée, celle-là... si on ajoute deux bits, c'est forcément des bits de poids faible !

Verso92

#98
Citation de: Stepbystep le Septembre 25, 2019, 13:39:13

N'importe quoi !

Si on prend 8 bits :

00000001 => le 1 est un bit de poids faible.
10000000 => Le 1 est un bit de poids fort

  01111111 => Vaut 127

Si on passe à 10 bits :
1101111111 = > vaut 895.

On a rajouté 2 bits de poids fort pas faible.

Quand on passe de 8 bits à 16 bits, on passe de 255 à 65535 valeurs, on a rajouté des bits de poids fort, pas faible

Le bit de poids faible (en anglais, least significant bit, ou LSB) est le bit, dans une représentation binaire donnée, ayant le plus petit poids ou position (celui de droite dans la notation positionnelle habituelle).

Exemple, pour un simple nombre en représentation binaire conventionnelle, le LSB est le bit le plus à droite : 01010110.

À l'opposé, on a le bit de poids fort (MSB).


Ce n'est pas le "numéro" du bit qui compte...


Pour prendre un exemple concret, soit un convertisseur analogique/numérique 3 bits qui convertit une tension variant de 0 à 8V (tableau 1). Chaque valeur numérique "fait" donc 1V.

Si on ajoute 1 bit à ce convertisseur (on a donc 4 bits), c'est en LSB (tableau 2, LSB en bleu). Chaque valeur numérique "fait" donc désormais 0,5V.

Verso92

Citation de: Stepbystep le Septembre 25, 2019, 14:47:16
Ton tableau n'a aucun rapport avec le sujet (je dirais même qu'il est faux).

Dans tes rêves...

Citation de: Stepbystep le Septembre 25, 2019, 14:47:16
Recherche sur internet bit poids faible et poids fort et tu auras plein d'exemples. Là, je n'ai pas trop le temps.

Que veux-tu que j'aille chercher son internet... c'est mon métier.