remwar a écrit:Je pense que ça dépend de l'écran.
Beaucoup d'écran lcd (surtout en full) ont du bruit vidéo (grain) et les sources sd sont pas terribles.
Il ne faut pas oublier que la domination ''full hd'' est une ''norme'' mais pas forcément un gage de qualité supérieure !
Pas mal de hd ready font mieux que des full hd (constaté chez samsung notamment) et beaucoup d'utilisateurs désactives les filtres de leur écran pour améliorer la qualité d'image ! (surtout chez philips)
J'ai un rétro tri-lcd Sony est la qualité en blu-ray (PS3) est vraiment génial (image net, aucune saccade, pas de fourmillement) et la sd est très bonne.
Pour ma part je vois une nette différence par rapport à un dvd.
J'ai vu en magasin le 86 bdx est l'image en full hd est vraiment détaillé (ce qui peu causer du bruit vidéo), couleurs superbes (un peu flashy même) et bon contraste.
Le constructeurs s'orientent vraiment sur le tout HD ce qui peu causer des problèmes avec certaines sources sd tv et dvd. (constaté sur certain lcd et plasma philips, samsung)
La difficulté aujourd'hui est de trouver un écran polyvalent car toute les sources ne sont pas en hd 720p et encore moins en full 1080p.
Salut, je ne suis que partiellement d'accord avec ce que tu dis...
Pour les HD Ready qui font mieux que les Full HD, ce ne sera que sur les signaux SH que cela sera visible... Mais la plupart des HD Ready d'aujourd'hui sont à une résolution de 1366*768, ce qui est totalement absurde car la norme HD Ready équivaut à du 1280*720, d'où un léger upscaling pour cette résolution, et donc perte de qualité, même peu visible...
Quant à la dénomination "Full HD", ce n'est pas un gage de qualité en tant que tel, mais c'en est un de toute façon dans l'esprit de tous. Maintenant, si on achète un Full HD pour regarder 90% du temps de la SD, des vieux DVD dans le vieux lecteur qui upscale pas, ou les vieilles ondes hertziennes analogiques, je ne vois pas trop l'intérêt d'un tel achat... Quand on achète un écran Full HD, il faut en profiter au maximum, sinon ça ne sert à rien...
Pour ce qui est du bruit video, ce n'est pas dû à l'écran lui-même la plupart du temps, mais à la façon dont sont encodés les films et à la volonté des producteurs à vouloir faire en sorte que l'image chez l'utilisateur sera la plus fidèle à ce qu'il aura vu au cinéma... Donc parfois sans traitements spéciaux pour éliminer le bruit...
Pour ce qui est de l'orientation des constructeurs, cela fait des années que la HD est implantée sur le marché américain, il était bien temps que ça arrive chez nous!!! Et si les constructeurs distribuent chez nous, c'est parce que l'état a enfin décidé d'ouvrir les fréquences pour la TNT, puis la TNT HD... Sans ça, les écrans dans nos chers magasins seraient encore à 2500€ le premier prix en HD Ready.... Un nouveau marché s'ouvre, et forcément les produit affluent en ce sens.
Perso, je regarde la TNT à 15-20% du temps, le reste c'est en bureautique avec PC en HDMI en 1920x1080 avec des réglages "softs" pour pas abîmer les yeux, et un réglage cinéma plus au point pour regarder les films Full HD, toujours par le PC...
Quant à la désactivation des filtres comme le Noise Réduction, le Movie Plus, le DNIe ou autres, je n'ai qu'une chose à dire : j'en fais partie, et je n'active le Movie Plus que pour les sources SD. Le reste je le laisse aux oubliettes... Pour les signaux Full HD et HD Ready, je me contente de trouver le bon réglage luminosité/contraste/couleur pour déboucher les noirs et les blancs un maximum... Résultat, noirs à 2% et blancs à 96%, le tout en espace de couleurs étendu et xvYCC activé...
Par contre, je voudrais juste préciser encore une dernière chose, le rétro-projecteur est un appareil qu'on voit dans les salles de réunion et salles de classe où on pose des transparents sur un miroir doublé d'une lentille de fresnel, c'est un peu le principe de fonctionnement des vidéo-projecteurs DLP...
Tous les écrans d'aujourd'hui sont polyvalents, c'est sûr qu'il y aura des disparités de qualité dans la diffusion de signaux n'étant pas à la résolution native de l'écran, car cela entraîne un traitement électronique/informatique du signal. Hors, une bonne vieille loi dit quelque chose comme : "le fait d'intervenir sur un signal en dégrade automatiquement la qualité"... C'est pareil pour tout, à partir du moment où on fait entrer un traitement en jeu, il y aura une dégradation quelque part, même si la qualité semble avoir augmenté, il suffit en général de s'approcher de l'écran pour comprendre que le signal "subit" plus qu'il ne s'améliore...
Mais c'est toujours pareil, entre regarder ton écran à 3,5m et le regarder à 50cm, il y a tout un monde de perception qui fait entrer le cerveau en jeu, et ça, c'est chacun pour soi!!!