Modérateurs: Modération Forum Home-Cinéma, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: LE PIRATE et 25 invités

Bien comprendre l'Ultra HD, la 4K, et les normes THX, Dolby, DTS, Auro 3D

Ultra HD , 4K , 8K , on en parle? (Synthèses pages 1, 18 19)

Message » 09 Fév 2013 17:50

Il semble que j'aie un peu de mal à m'empêcher d'être trop bavard, pourtant le sujet de la discussion devrait me pousser à prendre de bonnes résolutions... :mdr:
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 09 Fév 2013 20:38

J'essaie de faire un schéma.
sylvio50
 
Messages: 265
Inscription Forum: 22 Juin 2010 1:06
  • offline

Message » 09 Fév 2013 20:39

Mais je vais manger entre deux :D
sylvio50
 
Messages: 265
Inscription Forum: 22 Juin 2010 1:06
  • offline

Message » 09 Fév 2013 21:10

Image

Je vais éditer après. Je vais manger. Mais en gros, la question entre la distance D1 et D2 se pose sur le schéma. Pour moi, la bonne distance est la D2 qui est celle permettant de faire disparaitre la structure des pixels dans tous les cas de figures.

Bon, c'est beaucoup plus simple que tes explications mais ça peut peut être revenir au même. Voilà comme je vois les choses (de manière très simplifié).

Je crains que je me sois embrouillé dans les chiffres ? Là est la subtilité entre angle de séparation et cycle par degrés que tu semble maitriser. Enfaite, sur ce schéma, le +/- 1/30° devrai être remplacer ici par +/- 1/15°.
La distance de vue correspondrai à D2 = 2 * D1.
La distance D2 élimine toutes les chances de pouvoir distinguer la matrice de pixels, qui est une sorte de distance optimum où l'on est sûr à 100% de ne pas distinguer la dalle de pixels. Elle correspond à une perte totale du contraste dans le pire des cas (damier à 1 pixel). Dans le cas d'une bande à 1 pixel, c'est mieux, on retrouve un peu de contraste.
Un compromis peut être trouvé entre D1 et D2 mais D2 correspond à un optimum.

Enfin, je pense que JOJO54 va nous apporter quelques explications dès demain :mdr:

EDIT: Je répondrai plutôt demain.
sylvio50
 
Messages: 265
Inscription Forum: 22 Juin 2010 1:06
  • offline

Message » 10 Fév 2013 2:31

J'ai commencé à regarder tes schémas, mais l'heure est trop tardive pour que j'en tire quelque chose, un grand coup de dodo là-dessus s'impose, je m'y remettrai demain.

Je dirais juste que j'aurais une vue plus "optique ondulatoire" de la situation: un pixel se projette sur la rétine en formant une tâche de diffraction en sinx/x (rien à voir avec le bloqueur); A l'acuité visuelle limite les pics centraux des taches entrent en intersection à mi-hauteur, ils sont donc déjà partiellement fusionnés l'un dans l'autre, et on ne risque déjà plus de voir des pixels vraiment séparés, même en D1. A développer quand il fera jour...

Par contre j'ai fait le test pratique. Avec la formule à Distance = 1.56 x diagonale, la distance de référence serait 4.5 m chez moi. Avec le "damier" noir et blanc, je crois pouvoir encore vaguement deviner une structure jusque vers 3.75 m, aprés ça commence quand même à être raisonnablement uniforme. Par contre pour les lignes, la structure ne commence vraiment à disparaitre que vers 5.25 m (je me repère aux carrelages qui font 25 cm de coté). Je ne sais pas vraiment comment il faut expliquer la différence entre les deux.
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 10 Fév 2013 15:06

Tes cones en pointillés représentent la résolution limite de 1/60° je suppose ? Ce que tu appelles "l'axe rouge", c'est le centre du cône, et ce n'est pas representé ? Et par rapport à cet axe tes pointillés ont des inclinaisons de 1/120° ?

Mais je ne suis pas sûr de ce que tu veux représenter par ces multiples sommets de cones en parallèle à une distance donnée?

Intuitivement j'aborderais le problème comme suit:
Un oeil voit les choses depuis un seul point qui pourrait être par exemple le centre optique du système cornée + cristallin.
A travers ce point, l'image du damier présent à l'écran est projetée en bloc sur la rétine.

Comme un pixel est à la limite du pouvoir séparateur de l'oeil, il se projette en une tache de diffraction décrite par un (sin (x)/x)2 (revoyant mes cours, c'est un carré, forcément, sinon on aurait de la luminosité négative dans les lobes secondaires). L'espace noir entre deux pixels blancs est partiellement rempli par une partie du pic principal et plusieurs lobes secondaires venant des pixels adjacents. Si on calcule la somme qui en résulte, on a une ondulation qui est déjà plus faible que l'amplitude max du noir au blanc. Si on s'éloigne, les pixels tombent en dessous de l'acuité visuelle et donnent des taches de diffraction dont la forme reste constante et ne dépend plus du tout de l'extension spatiale du pixel, mais seulement de sa luminosité. Les taches se fondent de plus en plus les uns dans les autres et l'ondulation résiduelle se reduit de plus en plus. Lorsqu'elle devient inférieure à la différence de luminosité minimale perceptible (1 centième, je crois ?), on ne voit plus qu'une teinte uniforme. Pourquoi ce devrait être du gris plus tôt que du blanc n'est pas très clair pour moi à ce stade.

Dans tout ceci, je suppose, que le pouvoir séparateur de l'oeil est limité seulement par son optique, et pas par la densité de capteurs sur la rétine, que je considère ici comme un tapis continu en première approximation.
Dernière édition par gammaburst le 10 Fév 2013 15:23, édité 1 fois.
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 10 Fév 2013 15:12

sylvio50 a écrit:Enfin, je pense que JOJO54 va nous apporter quelques explications dès demain :mdr:


Mais bien sûr , alors voilà :

Si on considère que x= 1/2+√(13)/2 on a √(a±√(b)) = √(c)±√(d) avec c,d = (a±√(a-b))/2
d'ou √(4+√(4-x)) = √((4+√(x))/2)+√((4-√(x))/2)
mais si on considère que u(n+1) = sqrt ( 4 + sqrt ( 4 - u(n) ) )
alors x = sqrt ( 4 + sqrt ( 4 - x ) )
Je mets au carré, développe, etc.
x^4 - 8 x^2 + x + 12 = 0
Par identification avec le développement de (x²+ax+b)(x²+cx+d) :
( x² + x - 4 ) ( x² - x + 3 ) = 0

Bon là je pense que comme ça tous est clair , non ? :ane: :ane: :ane:
JOJO54
 
Messages: 8330
Inscription Forum: 11 Mai 2005 19:57
Localisation: Sud-Ouest...
  • offline

Message » 10 Fév 2013 15:20

Bonne réponse de M. Jojo54 !
Il faudra que tu me dises comment tu fais les racines carrées, afin que je puisse en abuser honteusement...
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 10 Fév 2013 16:29

Je dirais juste que j'aurais une vue plus "optique ondulatoire" de la situation

Je ne voyais pas les choses d'une manière aussi compliqué enfaite :mdr:

Tes cones en pointillés représentent la résolution limite de 1/60° je suppose ? Ce que tu appelles "l'axe rouge", c'est le centre du cône, et ce n'est pas representé ? Et par rapport à cet axe tes pointillés ont des inclinaisons de 1/120° ?

Oui, voilà, mais enfaite, il semble que ce soit plutôt 1/30°, non, en prenant 1 cycle = 1/30°, non ?
Le 1er point rouge correspond à une position dans le sens de la hauteur et le 1er point bleu à un décalage de position d'un demi-pixel vers le bas etc...
Quand on près de la dalle et qu'on déplace la tête, ça donne des choses bizarre qui aurait pu correspondre au fait qu'on voient tantôt plus de noir que de blanc et plus de blanc que de noir par alternance. Idem quand on se recule et qu'on avance, jusqu'à ce qu'on recule suffisamment pour qu'il n'y aient plus aucun changement de luminosité ou contraste.

Je voyait les choses comme suit:
En étant près, chaque cônes (représenté par les axes pointillés) dissocient les pixels noir des pixels blanc d'autant mieux que l'on est près.
En s'éloignant, chaque cônes voit une partie de blanc mélangé à une partie de noir et fait le mélange noir/blanc en fonction des proportions de blanc ou noir. Dû au fait que notre vision est imprécise et qu'elle est limité. Chaque cône ne peut plus voir les pixels noir ou les blanc de manière unitaire.
Arrivé à une certaine distance, chaque cône voit autant de blanc que de noir (en proportion égale), et se vois obligé de faire un mélange en ne privilégiant pas plus le noir que le blanc. Mais c'est visiblement un schéma réducteur. Surtout que ça me pose un problème si un pixel est isolé sur fond blanc. Alors je me dis que le problème provient du fait que je n'ai considéré qu'un seul point à la surface de l'oeil, et que peut être qu'en considérant des centaines de milliers de point à la surface de l'oeil, tous décalés d'une miette en distance, ça marcherai.

Sinon, pour tout ce qui concerne les lobes, je crains de ne pas pouvoir suivre en optique. En acoustique, pour le rayonnement d'une membrane de Haut Parleur par exemple, je pourrai comprendre, mais là, en optique, je suis un peu largué :mdr:
En acoustique, il faut décomposer la membrane avec un nombre de point qui soit suffisant, de manière à ce que la distance qui sépare 2 points (au niveau des centres des points) soit disons au minimum 4, 8 ou 16 fois plus petite que la longueur d'onde minimum rayonné (ou fréquence maximum) en fonction de l'erreur souhaité sur les résultats.

Je voyais ça d'une manière plus simple enfaite (beaucoup, beaucoup plus simple).

Bon, sinon, la conclusion, qu'elle est-elle ? De manière (très) simplifié :)

Par identification avec le développement de (x²+ax+b)(x²+cx+d) :
( x² + x - 4 ) ( x² - x + 3 ) = 0

Je suis arrivé au même résultat :ane:
sylvio50
 
Messages: 265
Inscription Forum: 22 Juin 2010 1:06
  • offline

Message » 10 Fév 2013 19:24

J'aime assez ta conclusion :D

Mais sinon, 30 cpd ou 1/60°, c'est juste deux façons différentes de dire la même chose. 1/60° dans les chiffres classiques, c'est le détail le plus fin qu'on peut distinguer., et donc forcement tu en as 60 par degré. Un cycle c'est une ligne noire plus une ligne blanche donc deux détails, il n'y a en donc plus que 30 groupes de deux par degres donc 30 cycles par degré = 30 cpd.

La façon de voir que je suggérais n'est pas si compliquée, car j'évite l'analyse détaillée de ce qui se passe quand on se décale d'un demi pixel, ou pas...En considérant d'emblée que l'optique de l'oeil crée une réplique du damier sur le fond de la rétine. Sauf que les pixels sont trop petits pour qu'on perçoive la forme du carré compte tenu des limites imposées par la diffraction à notre optique biologique, et tout ce qui reste du pixel, c'est ça:

Image

Pour plus d'exactitude il faudrait la transformer en une courbe 3D en la faisant touner autour de son axe et imaginer qu'on la pose au dessus du pixel sur la retine .Elle decrirait alors l'évolution de la luminosité perçue par la rétine quand on s'éloigne du centre du pixel.

La limite du pouvoir séparateur de l'oeil est atteinte quand les taches centrales de chaque pixel s'interpenetrent à moitié. Ca donne alors cela:
Image
La courbe verte represente la somme des contributions, et donc ce qui est perçu par la rétine. Je ne suis pas sûr qu'elle n'arriverait pas à être plate si j'avais une somme sur un beaucoup plus grand nombre...

Si maintenant un pixel sur deux disparait parce qu'il est noir:
Image

J'y decouvre avec vous que finalement les pixels adjacents ne comblent guère le vide, et curieusement, on obtient une courbe somme qui ressemble beaucoup à une sinusoide, dés la distance de 1.56 x D. Il est intéressant de noter que comme elle resulte de la forme des courbes de diffraction, elle ne dépend en fait pas de la forme des pixels ni du fait qu'ils soient jointifs ou non, mais seulement de leur luminosité et de leur écartement.

Si maintenant on s'éloigne, les courbes des pixels blancs vont se rapprocher sans changer de forme, et finalement on va retomber sur la deuxième figure, avec les pixels blancs. Identique seulement en apparence, car on sera plus loin et donc la luminosité perçue des pixels sera plus faible (l'amplitude n'est plus 1). Ca explique peut être qu'on perçoive du gris (mais pourtant les objets blancs ne virent pas au gris quand on s'éloigne) .Ce qui est sûr, c'est que si on rallume les pixels noirs en les passant au blanc à cette distance, on obtiendra une luminosité deux fois plus forte. il doit donc bien y avoir le bon rapport entre blanc et gris moyen.

J'en suis là de mes considérations pour l'instant. J'ai l'impression que dans cette approche le pixel isolé est assez difficile à faire disparaitre, surtout un blanc sur fond noir.

L'étude de la diffraction en acoustique doit effectivement comporter des similitudes: on decompose la surface emettrice (iris de l'oeil du point de vue de la rétine) en un ensemble de sources secondaires rayonnant dans toutes les directions et on fait la somme des contributions en un point en tenant compte des interferences dues aux différence de marche, etc. Mais je n'ai retenu que le resultat final, a savoir la fameuse courbe en
(sin(x) / x)2
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 12 Fév 2013 1:40

J'ai recherché quelques rappels sur les caractéristiques de l'oeil:
L'acuité visuelle maximale n'est atteinte que dans un champ de 2°, et c'est par un balayage tous azimuth que l'oeil arrive à acquérir une image nette sur de plus grand angles.
Ce champ de 2° correspond à une zone dense de la rétine appellée fovea, qui ne contient que des cônes (sensibles à la couleur) et aucun batonnet.
La taille d'un cône lui fait occuper 0.4 minute d'arc dans le champ visuel.
La diffraction ne devient vraiment importante que pour une pupille assez fermée (2 mm ou moins).
Si l'acuité n'était limitée que par la diffraction, l'acuité atteinte serait de 0.4 minute. Elle est ramenée à 1 minute par les aberrations de l'optique de l'oeil, qui prennent de l'importance lorsque l'ouverture de la pupille est grande.

J'en déduis que:
il n'y pas lieu de faire la moyenne de ce qui est perçu dans un angle de 1 minute puisque:
L'oeil capture au moins 2° d'un coup et ce champ n'est pas physiquement segmenté en arc de 1 minutes.
Dans une minute d'angle, on peut encore distinguer les deux pixels contigus.
La definition de la retine est suffisante pour que cet angle de 1 minute corresponde à plusieurs cônes qui peuvent donc distinguer le passage d'un pixel à l'autre (si tout tombait sur une seule cellule, effectivement on serait forcé de considérer une moyenne).

En ce qui concerne mes courbes, elles ne correspondent pas vraiment à la réalité puisque ce n'est finalement pas la diffraction qui limite. Mais peut être qu'on peut garder une partie du raisonnement en considérant que la courbe élementaire n'est plus un (sin(x)/x)2 .

Le raisonnement général sur les spectres peut par contre ne pas être trop faux, puisqu'il ne fait pas appel aux détails de la construction de l'oeil.

http://en.wikipedia.org/wiki/Visual_acuity

http://www.telescope-optics.net/combine ... ations.htm
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 12 Fév 2013 13:09

Hello,

Sur la 2ème courbe, c'est assez bizarre que ça ne donne pas une moyenne de luminance à cette distance.

Bon, sinon, ça reste un peu compliqué quand même finalement.
Si tu veux continuer les recherches, il y a ça (http://books.google.fr/books?id=tAJIt_N ... on&f=false) qui devrai être intéressant (à partir de la page 152 ou même à partir de la page 144). Tout le chapitre 6 (Diffraction) est complet.

J'en déduis que:
il n'y pas lieu de faire la moyenne de ce qui est perçu dans un angle de 1 minute puisque:
L'oeil capture au moins 2° d'un coup et ce champ n'est pas physiquement segmenté en arc de 1 minutes.
Dans une minute d'angle, on peut encore distinguer les deux pixels contigus.
La definition de la retine est suffisante pour que cet angle de 1 minute corresponde à plusieurs cônes qui peuvent donc distinguer le passage d'un pixel à l'autre (si tout tombait sur une seule cellule, effectivement on serait forcé de considérer une moyenne).

C'est assez bizarre. Le pouvoir de séparation devrai indiquer pourtant l'équivalent d'une segmentation. Le faite même de voir une seule couleur uniforme sur un damier bicolore indique que notre vision n'est plus suffisamment efficace pour traiter les infos de manière indépendante pourtant (quelqu'en soit la cause).

Il doit y avoir une explication (mais qui sera forcément compliqué :mdr: )

Peut être le critère de rayleigh pourrai répondre à ce genre de question. Sinon, voir la page 158 (Chapitre 6.6).

P.S.: Le problème, c'est que 3/4 des sites qui essaie d'expliquer ce pouvoir de séparation reste incroyablement floues dans les détails de leur explications, si bien qu'on ne peut pas vraiment comprendre ce qu'est ce fameux pouvoir. Dans le livre que je n'est pas encore trop regardé, ils apportent un peu plus de détails notamment dans la mesure de se pouvoir séparateur. Mais ça reste encore un peu vague pour moi.

ReP.S.: Mais sinon, ta 2ème courbe à l'air de coller aux figures du livres, mais les pics sont peut être trop espacé ? Lorsqu'ils sont rapproché (vu lointaine), il y a addition (noir+blanc) peut être d'où le mélange donnant du gris peut être ? Ca fait un peut penser au couplage des mode de vibration. Quand 2 résonances sont sur la même fréquence, il y a couplage et quand il sont espacés, il y a 2 sons distincts un peu comme en acoustique des salles.

Sur ta 2ème courbe, les pics sont séparés, alors ont devrai voir distinctement les pixels blancs séparément et les pixels noir séparément. La limite de séparation correspond certainement au fait qu'on ne puisse distinguer totalement séparément les pics de ta courbe (pic légèrement superposé).

Illustration du critère de rayleigh:
Image




Donc, lorsque 2 éléments rapproché émettent de la lumière et que ces éléments sont à l'intérieur de l'angle du cône 1/60° d'angle, ils interfèrent, et on ne voit que la résultantes des 2, et non 2 signaux bien séparés qui soit dissociable. C'est ce que traduit ce fameux angle de séparation. Donc, plus on s'éloigne et plus il y a de pixels blanc et noir à l'intérieur du cône, et plus le mélanges des signaux se fait. Sa se traduit par une perte du contraste au profit d'une moyenne de la luminance (mélange noir+blanc, d'où l'affaiblissement de la luminance par unité de surface) donnant du gris... si j'ai à peu près compris.
Dernière édition par sylvio50 le 12 Fév 2013 15:31, édité 1 fois.
sylvio50
 
Messages: 265
Inscription Forum: 22 Juin 2010 1:06
  • offline

Message » 12 Fév 2013 14:39

sylvio50 a écrit:Bon, sinon, ça reste un peu compliqué quand même finalement.


Non , pas du tout !!! :zzzz:
JOJO54
 
Messages: 8330
Inscription Forum: 11 Mai 2005 19:57
Localisation: Sud-Ouest...
  • offline

Message » 12 Fév 2013 14:59

:ane: :ane:
sylvio50
 
Messages: 265
Inscription Forum: 22 Juin 2010 1:06
  • offline

Message » 12 Fév 2013 23:04

Ton lien correspond exactement à ce que je voulais expliquer avec mes courbes. Sauf que chez moi il y a la somme, qui est forcément un petit plus (par definition). :mdr:

Mais ce que tu peux y voir, c'est que la taille de la tache de diffraction, et donc le pouvoir séparateur, ne dépend que de l'optique, et pas du tout du capteur que tu mets derrière : oeil, plaque photographique ou CCD. Et donc à fortiori ça ne depend pas du tout du fait que le capteur soit discontinu (cones ou pixel). Ce serait la même chose si c'était une surface uniforme photosensible comme celles des anciennes caméras à tube. Tu peux considérer deux objets à séparer visuellement n'importe ou dans le champ de l'instrument, c'est completement continu, c'est la réalité analogique. La projection du damier sur la rétine à travers l'optique de l'oeil te donne un tapis de lumière modelé par la diffraction et les aberrations optiques, et l'alternance noir/blanc mais qui est completement continu dans les deux directions du plan de la rétine. Apres, si derriere tu avais des cones plus gros que la tache representant l'image du pixel, ça introduirait une limitation supplémentaire, mais ce n'est pas le cas, ils sont plus petits d'un facteur de 2,5.

Une autre chose utile pour notre exercice, c'est ce qui se passe quand tu recules à partir de l'ecran : au début, tu peux arriver à voir le pixel comme un carré. Au fur et à mesure que tu t'éloignes, il devient plus petit. A un moment donné, il devient plus petit que la tache de diffraction, qui est le point lumineux le plus petit que puisse produire l'optique de l'oeil. A partir de ce moment là, quel que soit la distance, la tache qui represente l'image du pixel sur la retine ne diminue plus du tout puisque le diametre de cette tache est donné par l'ouverture de la pupille, la longueur d'onde de travail et c'est tout : la taille apparente de l'objet n'intervient plus. Le seul changement est que la luminosité de la tache diminue, mais pas son diamètre.

Le damier noir et blanc c'est finalement un fond noir sur lequel tu as des points lumineux qui sont les pixels blancs. A partir d'une certaine distance, chacun de ces points blancs se projette en une tache de taille constante sur la retine. Mais par contre, par simple effet de perspective, l'espace entre ces points ne peut que diminuer. Donc forcement, il arrivera un moment où toutes ces taches vont se fondre les unes dans les autres, puisqu'elles ne peuvent plus se réduire en proportion. Et tu vas forcément aboutir à un tapis lumineux continu sur le fond de la rétine que celle -ci ne pourra qu'analyser comme une teinte uniforme.

Aucun senseur aussi performant soit-il ne pourra faire mieux que voir cette teinte uniforme puisque c'est ce qu'il reçoit réellement de la lentille. Un appareil doté d'une optique plus performante (objectif avec moins d'aberration pouvant utiliser une ouverture plus grande) pourrait aller plus loin en arrière, mais à un moment donné il finira quand même bien par voir une teinte uniforme. Donc pas de surprise sur ce point.
gammaburst
 
Messages: 588
Inscription Forum: 08 Avr 2003 13:20
  • offline


Retourner vers Normes

 
  • Articles en relation
    Dernier message