oops, j'arrive apres la bataille..
en fait avec le temps ma lampe de projo a bcp gagne en peche, donc j'ai laisse tomber la LUT dessus.
plus le diffuseur est pret de la calib voulue, moins on doit bricoler sur le PC afin de "limiter la casse au niveau du nombre de couleurs".
sinon dans ARGYLL y'a un truc pour tester en combien de bits effectifs la LUT de la CG est.
en VGA ca donne ca :
dispcal -yc -v -R
Measuring VideoLUT table entry precision.
patch 6 of 6
patch 6 of 6
patch 6 of 6
Uncalibrated response:
Black level = 0.05 cd/m^2
White level = 52.55 cd/m^2
Aprox. gamma = 2.58
Contrast ratio = 1018:1
White chromaticity coordinates 0.3309, 0.3364
White Correlated Color Temperature = 5570K, DE to locus = 2.6
White Correlated Daylight Temperature = 5571K, DE to locus = 6.9
White Visual Color Temperature = 5638K, DE to locus = 2.5
White Visual Daylight Temperature = 5772K, DE to locus = 6.6
Effective LUT entry depth seems to be 9 bits
Seb.26 soutient que le VGA est mieux que le DVI car pas d'encodage RGB24 TMDS qui ruine la LUT 10 bit.
et moi je soutenais que les conversions successives DAC>ADC puis ADC>DAC ruinaient ces bits en plus.
en fait c'est entre les 2, le VGA est 1 bit plus precis que le DVI......si on a une LUT d'activee sur la CG bien sur, sinon aucune diff