danyboum a écrit:ce que je veux dire c'est justement qu'un jeu en 1080p devrait être un label de qualité , vu qu'il représente le full hd ...
donc, vu qu'il y'a plus de "lignes"en 1080p... il serait logique que le résultat soit meilleur ... la dessus , vous devriez être d'accord avec moi . ou alors pour le
coup , j'ai vraiment rien pigé au problème ...
C'est pas très compliqué à comprendre:
- 1280*720 ça fait environ 1 million de pixels à gérer par le CPU et la carte graphique
- 1920*1080 ça fait environ 2 millions de pixels à gérer par le CPU et la carte graphique (le double !)
Avec le même CPU et la même carte graphique, tu peux donc
- Soit faire du 720p avec de nombreux effets et détails
- Soit faire du 1080p avec beaucoup moins d'effets, de détails, ou un nombre de polygones moins importants.
C'est donc un compromis lié à la puissance et aussi à la mémoire disponible sur le matériel. S'il est relativement facile d'animer 1 million de pixels avec le matériel actuel, en animer deux fois plus n'est pas si évident. Cependant, au fur et à mesure que les développeurs apprendront à optimiser leur code et que des libs seront disponibles pour utiliser au mieux les SPE (pour la PS3), on verra certainement de plus en plus de jeux en 1080p. On voit que c'est possible sur des Wipeout-HD ou GT5-Prologue. Le possible deviendra peut-être un standard dans le futur.
Depuis longtemps, les ordinateurs avec un hardware fixe (C64, Atari-ST, Amiga...) ont eu des modes graphiques à la limite des possibilités matérielles. Les jeux sortis lors des premières années n'exploitaient jamais ces modes, mais après quelques années d'optimisation, d'utilisations d'astuces par les programmeurs, de nombreux jeux ont fini par sortir, avec des graphismes et des animations qui auraient été impensables quelques années auparavant sur le même matériel.