|
Modérateurs: Modération Forum Univers TV, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 181 invités
Tout sur les écrans plats HD du marché (TV LCD, TV Plasmas, TV SED, ...)
que vaut le plasma hitachi PD5200???
Alors moi je dis +1 aussi ( dès que je le reçois )
- bozo59
- Messages: 30
- Inscription Forum: 22 Mai 2004 16:20
corbendallas a écrit:en tant que futur possesseur de 5200 (a moins d'une super nouveauté top au meme prix dici septembre), je dis +1
Je crois que malgré mon pixel rouge, je vais conserver mon Plasma car il est en rupture, et aucun délai d'annoncé, cela doit être la rancon de la gloire....
- introid
- Messages: 3357
- Inscription Forum: 19 Avr 2004 14:42
introid a écrit:....Je crois que malgré mon pixel rouge, je vais conserver mon Plasma car il est en rupture, et aucun délai d'annoncé, cela doit être la rancon de la gloire....
ça avait fait pareil il y a un an avec le 42pd3000
- alfa
- Messages: 13815
- Inscription Forum: 27 Avr 2003 14:33
- Localisation: Région parisienne
a l'occasion d'un déplacement pro, je me suis retrouvé hier à la fnac à comparer les différents plasmas...
Pour être très sincère, je m'attendais à prendre une grosse baffe devant le pioneer... et bien pas du tout, bien au contraire !
toutes les dalles tournaient sur le sat avec le même canal, et j'ai trouvé des effets d'escaliers et de solarisation sur le pio complètements absents de l'hitachi,
et en dépit de son milliard de couleurs, l'image et les teintes de l'hitachi étaient beaucoiup plus naturelles, sans aucune mesure avec celle de l'hitachi,
Ok, ça reste une affaire de gouts et de couleurs, mais ça fait toujours plaisir...
petite question, à mon tour : toujours très satisfait de mon couple hitachi + samsung 935, je m'interroge cependant sur la nécessité de changer le cable DVI livré avec la machine,
j'en ai repéré un sympa, mais le prix est quand même de près de 100 Euros, alors que dans l'optique d'une évolution dans un an, j'ai peur que les sorties HDMI aient pris le pas sur le DVI, et que mon cable n'ait alors plus d'utilité...
quelqu'un a-t-il fait l'expérience concrète d'un changement de cable ? je souhaiterais surtout pouvoir gagner sur les noirs, qui il faut le dire sont complètement bouchés sur le samsung,
y aura-t-il une incidence sur ce facteur ?
merci d'avance
Pour être très sincère, je m'attendais à prendre une grosse baffe devant le pioneer... et bien pas du tout, bien au contraire !
toutes les dalles tournaient sur le sat avec le même canal, et j'ai trouvé des effets d'escaliers et de solarisation sur le pio complètements absents de l'hitachi,
et en dépit de son milliard de couleurs, l'image et les teintes de l'hitachi étaient beaucoiup plus naturelles, sans aucune mesure avec celle de l'hitachi,
Ok, ça reste une affaire de gouts et de couleurs, mais ça fait toujours plaisir...
petite question, à mon tour : toujours très satisfait de mon couple hitachi + samsung 935, je m'interroge cependant sur la nécessité de changer le cable DVI livré avec la machine,
j'en ai repéré un sympa, mais le prix est quand même de près de 100 Euros, alors que dans l'optique d'une évolution dans un an, j'ai peur que les sorties HDMI aient pris le pas sur le DVI, et que mon cable n'ait alors plus d'utilité...
quelqu'un a-t-il fait l'expérience concrète d'un changement de cable ? je souhaiterais surtout pouvoir gagner sur les noirs, qui il faut le dire sont complètement bouchés sur le samsung,
y aura-t-il une incidence sur ce facteur ?
merci d'avance
- Fev's
- Messages: 58
- Inscription Forum: 23 Oct 2003 15:28
- Localisation: Lot et Garonne, patrie du coincoin
Fev's a écrit:petite question, à mon tour : toujours très satisfait de mon couple hitachi + samsung 935, je m'interroge cependant sur la nécessité de changer le cable DVI livré avec la machine,
j'en ai repéré un sympa, mais le prix est quand même de près de 100 Euros, alors que dans l'optique d'une évolution dans un an, j'ai peur que les sorties HDMI aient pris le pas sur le DVI, et que mon cable n'ait alors plus d'utilité...
Dites, les gars, remplacer un cable YUV par un autre de meilleure qualité pour améliorer le signal, je veux bien. Mais là on parle de câble faisant passer un signal NU-MÉ-RI-QUE !
Alors à moins qu'on me prouve le contraire (ce qui n'est pas gagné), à partir du moment ou le câble fonctionne, impossible d'obtenir une meilleure image: l'intégrité complète du signal est assurée !
Donc changer le câble == gaspiller de l'argent.
- Alexis Belhomme
- Messages: 923
- Inscription Forum: 16 Nov 2003 20:14
- Localisation: En Bretagne à manger des galettes
Je suis exactement du même avis, sauf longueur exceptionnelle qui engendrerait une perte (et encore).
Mieux vaut mettre les 100€ dans un meilleur lecteur amha
Mieux vaut mettre les 100€ dans un meilleur lecteur amha
- wheely30km
- Messages: 1861
- Inscription Forum: 13 Nov 2003 13:31
- Localisation: Luxembourg
Alexis , en théorie un "1" c'est un "1", idem pour un "0" - right?
Sauf que... à des fréquences très élevées, un signal "numérique", qui est tout de mm convoyé au travers de connecteurs et d'un câble (cuivre ou autre) qui sont eux bien physiques, obéit à certaines lois qui font ressortir justement la nature "analogique" des câbles transportant ces bits d'information.
J'ai pas fait le calcul exact mais pour le DVI il me semble qu'on approche le Gbps (en tous cas plusieurs centaines de MBps, ça dépend aussi de la résolution du signal vidéo transporté), autrement dit la durée d'un bit est < 1ns, et donc les front de montée/descente de 0 à 1 (et 1 à 0) sont de l'ordre de qq centaines voire qq dizaine de picosecondes max. A noter que pour le HDMI c'est encore pire, 5 ou 6Gbps de taux de transfert il me semble!
Suivant la qualité d'interconnexion (en gros les connecteurs DVI), mais aussi la longueur et la qualité des câbles mm (diélectrique, conducteur, finition, ...) les temps de montée/descente (et leur symmétrie qui doit être la meilleure possible) vont être affectés, à un point tel qu'avec des câbles de qualité insuffisante les bits ne sont plus transmis avec 100% de fidélité...
De plus le standard DVI-D n'utilise pas d'algorithme de correction d'erreurs (ss doute une erreur de la part du DVI working group...).
Et voilà pourquoi mm en "tout numérique" le câblage peut avoir son importance - ceci devenant de plus en plus vrai avec l'arrivée de la HD et des définitions de plus en plus élevées du futur...
Sauf que... à des fréquences très élevées, un signal "numérique", qui est tout de mm convoyé au travers de connecteurs et d'un câble (cuivre ou autre) qui sont eux bien physiques, obéit à certaines lois qui font ressortir justement la nature "analogique" des câbles transportant ces bits d'information.
J'ai pas fait le calcul exact mais pour le DVI il me semble qu'on approche le Gbps (en tous cas plusieurs centaines de MBps, ça dépend aussi de la résolution du signal vidéo transporté), autrement dit la durée d'un bit est < 1ns, et donc les front de montée/descente de 0 à 1 (et 1 à 0) sont de l'ordre de qq centaines voire qq dizaine de picosecondes max. A noter que pour le HDMI c'est encore pire, 5 ou 6Gbps de taux de transfert il me semble!
Suivant la qualité d'interconnexion (en gros les connecteurs DVI), mais aussi la longueur et la qualité des câbles mm (diélectrique, conducteur, finition, ...) les temps de montée/descente (et leur symmétrie qui doit être la meilleure possible) vont être affectés, à un point tel qu'avec des câbles de qualité insuffisante les bits ne sont plus transmis avec 100% de fidélité...
De plus le standard DVI-D n'utilise pas d'algorithme de correction d'erreurs (ss doute une erreur de la part du DVI working group...).
Et voilà pourquoi mm en "tout numérique" le câblage peut avoir son importance - ceci devenant de plus en plus vrai avec l'arrivée de la HD et des définitions de plus en plus élevées du futur...
Dernière édition par peezee le 02 Juin 2004 17:26, édité 1 fois.
- peezee
- Messages: 1944
- Inscription Forum: 26 Sep 2003 16:11
- Localisation: Paris
peezee a écrit:Alexis , en théorie un "1" c'est un "1", idem pour un "0" - right?
Sauf que... à des fréquences très élevées, un signal "numérique", qui est tout de mm convoyé au travers de connecteurs et d'un câble (cuivre ou autre) qui sont eux bien physiques, obéit à certaines lois qui font ressortir justement la nature "analogique" des câbles transportant ces bits d'information.
J'ai pas fait le calcul exact mais pour le DVI il me semble qu'on approche le Gbps (en tous cas plusieurs centaines de MBps), autrement dit la durée d'un bit est < 1ns, et donc les front de montée/descente de 0 à 1 (et 1 à 0) sont de l'ordre de qq centaines voire qq dizaine de picosecondes max. A noter que pour le HDMI c'est encore pire, 5 ou 6Gbps de taux de transfert il me semble!
Suivant la qualité d'interconnexion (en gros les connecteurs DVI), mais aussi la longueur et la qualité des câbles mm (diélectrique, conducteur, finition, ...) les temps de montée/descente (et leur symmétrie qui doit être la meilleure possible) vont être affectés, à un point tel qu'avec des câbles de qualité insuffisante les bits ne sont plus transmis avec 100% de fidélité...
Je sais bien tout ça, je suis ingénieur, j'ai eu quelques cours sur le sujet
Bien évidemment, il est possible que le signal, même numérique, arrive dégradé, et c'est pour ça que tout protocole de communication numérique digne de ce nom implémente des méthodes de correction (ou au moins de détection) d'erreur. Dans le cas du DVI (ou du firewire), ou il n'y a a priori qu'une communication unidirectionnelle, il doit forcément y avoir un moment ou le receveur, ne pouvant pas suivre (trop d'erreurs, signal incompréhensible), stoppe tout simplement d'accepter le flux de données, ou bien génère des artefacts grossiers dans la reproduction des données.
Pour illustration, c'est comme un DVD bien rayé qui passe mal sur une platine et qui génère des gros artefacts d'image ou bien carrément des sauts.
Et voilà pourquoi mm en "tout numérique" le cablâge peut avoir son importance - ceci devenant de plus en plus vrai avec l'arrivée de la HD et des définitions du futur...
Ce que je dis simplement, c'est que si tout fonctionne correctement, s'il n'y a pas de problèmes d'affichage, alors l'affichage est "parfait" au sens ou il ne s'améliorera pas (définition, piqué, reproduction des couleurs) si on change le cable. Pas comme en analogique.
Tiens c'est un intéressant c't'histoire, je vais aller chercher de la doc technique sur le DVI...
- Alexis Belhomme
- Messages: 923
- Inscription Forum: 16 Nov 2003 20:14
- Localisation: En Bretagne à manger des galettes
Oops!
pendant que tu postais ça, je rajoutais à mon post que justement le standard DVI ne supportait pas d'ECC...
et c'est pour ça que tout protocole de communication numérique digne de ce nom implémente des méthodes de correction (ou au moins de détection) d'erreur
pendant que tu postais ça, je rajoutais à mon post que justement le standard DVI ne supportait pas d'ECC...
- peezee
- Messages: 1944
- Inscription Forum: 26 Sep 2003 16:11
- Localisation: Paris
peezee a écrit:Oops!et c'est pour ça que tout protocole de communication numérique digne de ce nom implémente des méthodes de correction (ou au moins de détection) d'erreur
pendant que tu postais ça, je rajoutais à mon post que justement le standard DVI ne supportait pas d'ECC...
Raaah, les porcs !
Bon ben c'est du brut de fonderie alors. Ca ne change pas grand chose (soit le cable est suffisamment bon, soit il faut le changer), mais c'est quand même bien dégueu leur truc.
- Alexis Belhomme
- Messages: 923
- Inscription Forum: 16 Nov 2003 20:14
- Localisation: En Bretagne à manger des galettes
J'imagine que le pbm central c'est le fait qu'une appli comme le DVD ou la TV c'est évidemment du temps réel, donc pas forcément le temps de corriger ou pire ré-envoyer les bytes en erreur le cas échéant... 'fin bon, il aurait p-ê été possible d'imaginer une solution, mais visiblement le w/g du standard DVI n'a pas jugé bon de s'en préoccuper, une information imparfaite sur une image vidéo (ou sur du son d'ailleurs) pouvant être éliminée/corrigée par le cerveau, alors qu'une erreur sur une feuille de calcul par ex. bah ça passe pas du tout...
- peezee
- Messages: 1944
- Inscription Forum: 26 Sep 2003 16:11
- Localisation: Paris
peezee a écrit:J'imagine que le pbm central c'est le fait qu'une appli comme le DVD ou la TV c'est évidemment du temps réel, donc pas forcément le temps de corriger ou pire ré-envoyer les bytes en erreur le cas échéant... 'fin bon, il aurait p-ê été possible d'imaginer une solution, mais visiblement le w/g du standard DVI n'a pas jugé bon de s'en préoccuper, une information imparfaite sur une image vidéo (ou sur du son d'ailleurs) pouvant être éliminée/corrigée par le cerveau, alors qu'une erreur sur une feuille de calcul par ex. bah ça passe pas du tout...
C'est clair.
J'ai survolé le document de specs du DVI v1.0.
Déjà, c'est unidirectionnel, il n'y a pas de communication à proprement parler. Donc il est hors de question de demander à nouveau une info erronée. Ce qui parait normal vu la nature du signal. Mais il s'agit vraiment de transmettre un flux de données brut de forme. Le receveur n'est même pas obligé par la spec d'implémenter une quelconque gestion des erreurs.
C'est vrai qu'on transmet de la vidéo donc l'intégrité des données n'est pas forcément primordiale.
Je n'ai jamais vu d'affichage via un cable DVI défaillant sur un écran, mais je suppose que ça doit être fun. En tous cas je doute que ça passe inaperçu !
- Alexis Belhomme
- Messages: 923
- Inscription Forum: 16 Nov 2003 20:14
- Localisation: En Bretagne à manger des galettes
introid a écrit:Combien ici ont acheté le 5200?
Alors??
- introid
- Messages: 3357
- Inscription Forum: 19 Avr 2004 14:42
en pourparler avec Darty!!!
- corbendallas
- Messages: 1630
- Inscription Forum: 19 Oct 2003 17:35
- Localisation: Ile de France - 92
|
|