Modérateurs: Modération Forum Haute-Fidélité, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: Calibre 101, mastroianni et 58 invités

Les Lecteurs CD & SACD

Les DVD-A/CD hybrides vont arriver. La mort du SACD annoncée

Message » 02 Mar 2003 21:01

jbcauchy a écrit:Par contre, je ne connais pas précisement la fréquence mini pour que le bruit de quantif soit inférieur au bruit analogique sur le DSD, mais d'après les courbes de banc d'essai de platines SACD dans "Hifi Vidéo Home Cinéma", je dirais que c'est au-dessus de 20kHz, car sur les courbes qu'ils donnent (qui s'arrètent à 20kHz), on ne voit pas encore la remontée caractéristique du "noise-shaping".


Selon les mesures de l'Accuphase DP-85 dans stereophile, à 20 Khz on est en plein dans la remontée caractéristique du noise-shaping, mais comme on part de très bas on est quand même à -90 db.

Image

Sinon, merci pour ton explication sur le non-respect des hypothèses de Shannon/Nyquist : je ne suis pas encore totalement convaincu mais j'y réfléchis ;)
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 02 Mar 2003 21:43

re jb

bon j'ai un peu réfléchis ;)

jbcauchy a écrit:Ben, la notion de stationarité par exemple, qui se trouve liée à la notion de "fenètre temporelle" associée à la numérisation...
Essayes de faire la FFT d'un signal dont le spectre n'est pas le même pendant toute la fenètre de ta FFT, et tu verras le désastre !
Quand le contenu spectral varie au cours dela fenètre d'observation de ta FFT, tu ne sais plusdire après coup comment était la répartition temporelle des différentes composantes spectrales.

Et c'est bien là le dilemne :
- si tu veux augmenter la précision de ta FFT, il faut que tu augmentes la durée de la fenètre (pour avoir plus de points en temporelle, et donc plus deprécision en fréquenciel), mais dans ce cas, tu vas avoir plus de variation du spectre au cours de la fenètre (stationarité non vérifiée).
- si tu veux affiner la connaissance des variations temporelles de spectre du son (pour voir les "attaques"), tu es obligé de raccourcir la urée d'observation, ce qui diminue la précision en fréquence....

La seule solution en pcm : augmenter la fréquence d'échantillonnage, pour avoir beaucoup de points de mesures, tout en conservant une fenètre d'observation suffisament petite par rapport aux varaitions de spectre du signal...

Comme je l'ai déja dit, on m'a toujours appris en traitement numérique du signal qu'il faut au moins un facteur 5 à 10 entre la fréquence d'échantillonnage et la fréquence max du signal, et c'est bien ce que je suis ammené à mettre en pratique au boulot (dans des domaines non-audio), et parfois un coef bien plus élevé...

Attention, je ne dis pas que Shannon, Nyquist et Fourier se sont trompés, mais juste que leurs théories ne sont pas si anodines que ça à appliquer, à causes des hypothèses, des résultats qu'elles ont données, et des contraintes que cela apporte.
C'est d'ailleurs pour cela que depuis longtemps les scientifiques se sont penchés sur la modélisation des signaux non-stationaires à partir de théories plus adaptées que les décompositions de Fourier.


Ne nos jours, la plupart des CD sont mastérisés à partir de bandes 96 Khz ou plus et/ou sont issus d'un echantillonnage delta-sigma à fréquences très elevée. La conversion au format CD lui-même étant ensuite réalisée dans le domaine numérique.

Le signal analogique est donc de base sur-echantillonné lors de son acquisition initiale.

Cela ne resout il pas le problème de la stationnarité?


Même avec des filtres passe-bas "idéaux" (0dB et 0 déphasage en dessous de la coupure, et atténuation infini au dessus), la fonction de transfert ne serait pas plate. Tu n'as jamais entendu parler de l'effet "sinus cardinal" de la numérisation ? C'est la fonction de transfert en gain d'un "bloqueur d'ordre 0" qui est l'élément de base de la numérisation. L'amplitude moyenne d'un signal à l'approche de Fe/2 sera plus faible que le signal d'origine (typiquement 10% à Fe/4 et plus du tiers à Fe/2) et je ne parle pas du déphasage...

En plus, au fur et à mesure qu'on se rapproche de Fe/2 (et c'est encore pire au-dela), la phase relative entre le signal analogique et l'horloge de numérisation influe de plus en plus sur l'amplitude apparente du signal numérisé.
Par ex, à Fe/4, je disais qu'en moyenne l'amplitude est 10% plus faible qu'avant numérisation, mais selon la phase, l'erreur d'amplitude apparente varie de 0% à environ 30% d'erreur (en fait l'amplitude pire-cas est multipliée par racine(2)/2=0.707 pour être "précis").
En clair, Shannon nous garantie que pour un signal stationnaire il n'y a pas de perte d'informations (au sens contenu spectral) si f<Fe/2, mais il ne garantie pas du tout que le signal numérisé aura la même allure que le signal initial...

a+

jb


Je ne connais pas l'effet "sinus-cardinal" :-?

Mais par contre, j'ai la même remarque que précédemment : le sur-echantillonage puis conversion numérique en format natif CD ne résout il pas le problème ?

et une question de plus :
cet effet est il propre aux ADC PCM ou commun à tous les ADC y compris les Delta-Sigma ?
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 03 Mar 2003 10:59

jbcauchy a écrit:Salut !

Bon, je vois que cela chauffe de plus en plus par ici :wink:
perso, j'ai toujours pas réussi à décider si je le considère comme un troll ou pas...


A toi de juger, sachant qu'il qualifie tes explications de "verbiage" ...

La configuration dans mon profil


J'aurais voulu être un artiiiiiiiiiiiste .... ouillllllle
Finalement la HiFi c'est pas mal ;-)
Kador
Membre HCFR
Membre HCFR
 
Messages: 3618
Inscription Forum: 14 Mar 2002 2:00
Localisation: 31 cassoulpif
  • offline

Message » 03 Mar 2003 12:55

J'ai trouvé cet article sur l'analyse spectrale de la parole (les principes sont évidemment transposables pour l'audio en général). Le chapitre 4 (page 16 et +) donne une idée de la problématique de l'analyse en fréquence d'un signal non-stationnaire et de la taille de la fenêtre. A jbcauchy: c'est l'inégalité d'Heisenberg (p. 23) qui caractérise le dilemme dont tu parles pour le calcul de la fenêtre?
http://www.ci.tuwien.ac.at/~weingessel/docs/papers/diplomarbeit.ps.gz
oufman
 
Messages: 340
Inscription Forum: 20 Jan 2003 22:44
Localisation: 43.17°N 6.03°E
  • offline

Message » 03 Mar 2003 14:07

oui mais tout ca est centré autour de la FFT.

Même si les concepts de l'échantillonnage et le théorème de Shannon/Nyquist sont proches d'une FFT, c'est quand même pas tout à fait pareil.

Perso, je continue à chercher et je ne trouve nulle part une indication disant que Shannon ne s'applique que pour des signaux stationnaires.

Si quelqu'un trouve, faites signe ;)
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 03 Mar 2003 14:26

ajds a écrit:oui mais tout ca est centré autour de la FFT.

Même si les concepts de l'échantillonnage et le théorème de Shannon/Nyquist sont proches d'une FFT, c'est quand même pas tout à fait pareil.

Perso, je continue à chercher et je ne trouve nulle part une indication disant que Shannon ne s'applique que pour des signaux stationnaires.

Si quelqu'un trouve, faites signe ;)

Je viens de trouver ça ce matin, mais je n'ai pas eu le temps de la lire, ça à l'air pile poil dans le sujet:
http://www.comp.lancs.ac.uk/~hazas/hazas99_mphil.pdf
oufman
 
Messages: 340
Inscription Forum: 20 Jan 2003 22:44
Localisation: 43.17°N 6.03°E
  • offline

Message » 03 Mar 2003 14:41

oufman a écrit:Je viens de trouver ça ce matin, mais je n'ai pas eu le temps de la lire, ça à l'air pile poil dans le sujet:
http://www.comp.lancs.ac.uk/~hazas/hazas99_mphil.pdf


Merci pour lien.
J'ai parcouru rapidement et ca traite essentiellement du traitement numérique du signal (suppression de bruit et de clicks), donc on en reviens toujours à un équivalent de FFT.

J'ai l'impression que pour faire du DSP proprement, la fréquence de nyquist ne suffit pas, mais si on veut juste reproduire le signal sans traitement, pour l'instant je n'ai vu aucune contre-indication.
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 03 Mar 2003 15:06

Le théorème de Shannon et le critère de Nyquist sont basés sur l'hypothèse d'un signal stationnaire et c'est l'analyse de Fourier qui fournit le cadre théorique. Si l'hypothèse de travail est fausse, le critère de Nyquist n'est par conséquent plus nécessairement vrai. Tous les articles que j'ai parcouru précisent que l'analyse de Fourier n'est pas adaptée pour les signaux non-stationnaires, d'où les "Short Time Fourier Transforms", "Continuous Wavelet Transforms" et autres techniques pour mieux appréhender le signal. La "bonne" question semble être: comment déterminer mathématiquement (et pas empiriquement) la bonne fréquence d'échantillonnage dans le cadre des signaux non-stationnaires. Me trompe-je ?
oufman
 
Messages: 340
Inscription Forum: 20 Jan 2003 22:44
Localisation: 43.17°N 6.03°E
  • offline

Message » 03 Mar 2003 15:30

oufman a écrit:Le théorème de Shannon et le critère de Nyquist sont basés sur l'hypothèse d'un signal stationnaire


Justement, c'est bien la le problème : a ma connaissance non, Shannon et Nyquist ne sont pas basés sur l'hypothèse d'un signal stationnaire.

Cela dit comme je reconnais volontier la compétence de jbcauchy ou la tienne, je suis tout à fait disposé à le croire, j'aurais simplement besoin d'un texte officiel ou d'une démonstration formelle pour en être totalement convaincu ;)

et c'est l'analyse de Fourier qui fournit le cadre théorique.


la oui, je suis 100% d'accord. Ca fournit le cadre théorique mais autant on a besoin d'échantillonner pour faire une FFT, autant on n'a pas besoin de faire une FFT pour reproduire le signal ;)

Si l'hypothèse de travail est fausse, le critère de Nyquist n'est par conséquent plus nécessairement vrai.


tout le problème est la, savoir quelle est la liste exhaustive des hypothèses.

Tous les articles que j'ai parcouru précisent que l'analyse de Fourier n'est pas adaptée pour les signaux non-stationnaires, d'où les "Short Time Fourier Transforms", "Continuous Wavelet Transforms" et autres techniques pour mieux appréhender le signal. La "bonne" question semble être: comment déterminer mathématiquement (et pas empiriquement) la bonne fréquence d'échantillonnage dans le cadre des signaux non-stationnaires. Me trompe-je ?


On en reviens toujours au même : si on veut faire du DSP (donc, entre autres, de la FFT), Shannon/Nyquist ne suffisent pas. J'ai lu plusieurs fois ce que dit jbcauchy, a savoir qu'il est prudent d'échantilloner à 10 fois la fréquence utile mais c'est à chaque fois dans un contexte de traitement du signal et pas de simple echantillonnage/reproduction.
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 03 Mar 2003 16:00

Fais plutôt confiance à jbcauchy, c'est lui qui m'a parlé de cette hypothèse il y a quelques semaines. Je cherche encore une réf. avec une hypothèse explicite sur la stationnarité, dès que j'en ai une je l'envoie (si jbcauchy ne l'a pas fait d'ici là!)
Voilà encore un lien au poil, mais ce n'est pas la non-stationnarité qui est mise en avant:

http://www.digital-recordings.com/publ/pubneq.html
oufman
 
Messages: 340
Inscription Forum: 20 Jan 2003 22:44
Localisation: 43.17°N 6.03°E
  • offline

Message » 03 Mar 2003 17:00

oufman a écrit:Voilà encore un lien au poil, mais ce n'est pas la non-stationnarité qui est mise en avant:

http://www.digital-recordings.com/publ/pubneq.html


Merci, excellent article mais il confirme je que je disais :

Shanon/Nyquist partent du principe d'une sommation régulière de tous les échantillons de "moins l'infini" à "plus l'infini", ce qui est bien réalisé dans le cadre d'un DAC suivi d'un filtre passe-bas. Par contre, dès que l'on veut faire une FFT, on est bien obligé de choisir une "fenêtre" d'échantillons et c'est la que ca coinçe par rapport à Fe/2.

C'est intéressant parce ce que ca veut dire qu'une égalisation numérique à partir d'un signal 44.1 Khz (type Behringer) va engendrer ce genre de problèmes alors que le problème ne se présentera pas si on fait la conversion directement !
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 03 Mar 2003 20:52

Salut !
ajds a écrit:Selon les mesures de l'Accuphase DP-85 dans stereophile, à 20 Khz on est en plein dans la remontée caractéristique du noise-shaping, mais comme on part de très bas on est quand même à -90 db.
Vu les courbes du Sony et du Marantz dans "Hifi Vidéo Home Cinéma", le problème vient plus de l'Accuphase que du DSD à mon avis : la courbe pour le Sony est parfaitement plate jusqu'au bout (qui s'arrète à 20kHz, il est vrai).

En plus, sur la courbe que tu donnes (que j'avais déja vu, en consultant tes liens), il y a un truc qui me chagrine : pour le pcm (les courbes du bas), on a déja une courbe qui est montante sur tout le spectre, alors qu'elle devrait être plate !!!
Visiblement, la dsp qu'il présente est calculée avec d'une façon bizarre : ils ont l'air de prendre un coef logarithmique pour tenir compte de l'échelle de fréquence qui est elle-aussi logarithmique...

jb
jbcauchy
 
Messages: 3117
Inscription Forum: 22 Oct 2001 2:00
Localisation: Chatellerault
  • offline

Message » 03 Mar 2003 21:06

ajds a écrit:oui mais tout ca est centré autour de la FFT.

Même si les concepts de l'échantillonnage et le théorème de Shannon/Nyquist sont proches d'une FFT, c'est quand même pas tout à fait pareil.
Oui, c'est vrai, mais en pratique, si tu n'es pas en mesure de faire une FFT, cela veut dire que ta numérisation a un problème...

Perso, je continue à chercher et je ne trouve nulle part une indication disant que Shannon ne s'applique que pour des signaux stationnaires.
Déja, tout simplement, ils s'appuient sur la décomposition de Fourier, et on peut vérifier qu'un signal non-stationnaire peut donner une suite de Fourier "infinie".
Au départ la décomposition de Fourier n'est directement applicable QUE pour les signaux stationnaires (les sinus et cosinus ne constituent une base que dans l'espace des fonctions pérodiques, si on veut employer des termes mathématiques), et le fait de l'appliquer aux signaux non-stationnaires est une "extension" en supposant que le signal peut localement être assimilé à un signal stationnaire. Cette hypothèse n'est réellement vérifiée en pratique que si la variation du spectre du signal est lente, ce qui n'est pas le cas de l'audio...
jbcauchy
 
Messages: 3117
Inscription Forum: 22 Oct 2001 2:00
Localisation: Chatellerault
  • offline

Message » 03 Mar 2003 21:34

jbcauchy a écrit:Déja, tout simplement, ils s'appuient sur la décomposition de Fourier, et on peut vérifier qu'un signal non-stationnaire peut donner une suite de Fourier "infinie".
Au départ la décomposition de Fourier n'est directement applicable QUE pour les signaux stationnaires (les sinus et cosinus ne constituent une base que dans l'espace des fonctions pérodiques, si on veut employer des termes mathématiques), et le fait de l'appliquer aux signaux non-stationnaires est une "extension" en supposant que le signal peut localement être assimilé à un signal stationnaire. Cette hypothèse n'est réellement vérifiée en pratique que si la variation du spectre du signal est lente, ce qui n'est pas le cas de l'audio...


Oui mais théoriquement, la vitesse de variation du signal est limitée par le spectre borné. Ce que je veut dire c'est que la non-stationnarité du signal est limitée intrinsèquement par sa fréquence max. Exprimé autrement, le signal ne peut pas changer plus vite que "sa composante la plus elevée en fréquence" et c'est le principe même de Shannon/Nyquist, enfin je crois ;)
ajds
 
Messages: 11521
Inscription Forum: 02 Fév 2000 2:00
Localisation: Région Parisienne
  • online

Message » 03 Mar 2003 21:45

ajds a écrit:De nos jours, la plupart des CD sont mastérisés à partir de bandes 96 Khz ou plus et/ou sont issus d'un echantillonnage delta-sigma à fréquences très elevée. La conversion au format CD lui-même étant ensuite réalisée dans le domaine numérique.
Le signal analogique est donc de base sur-echantillonné lors de son acquisition initiale.
Cela ne resout il pas le problème de la stationnarité?
Ben, pas vraiment, car c'est "intrinsèque" au codage pcm. Enfin, le sur-échantillonnage lors du mastering permet éventuellement d'ajouter artificiellement un gain dans les hautes fréquences pour compenser l'effet "sinus cardinal". Il me semble d'ailleurs que la norme CD permet cela et prévoit un bit dans les trames SPDIF pour le signaler (afin que le dac en tienne compte).
Par contre, cette correction ne pourra correspondre qu'à la valuer "moyenne" de l'erreur d'amplitude (qui dépend de la phase comme je l'explique plus bas).

A mon avis, c'est surtout le sur-échantillonnage dans le dac qui permet de corriger : si tu mets les "points intermédiaires" de façon intelligente, tu pourras reconstruire un signal assez conforme à l'original...
Mais cela fait grimper en flèche le prix des dac, et le fait de devoir sur-échantillonné montre bien que le "condition de Shannon" ne suffit pas !

Je ne connais pas l'effet "sinus-cardinal" :-?
Cela traduit le fait que le gain de la fonction de transfert d'un "bloqueur d'ordre 0" est de la forme sinus(PI x f/Fe)/(Pi x f/Fe).

Un exemple simple : reprenons le sinus à Fe/4. Sa formulation général aux instants d'échantillonnage est sinus(n x PI/2 +phi) avec n le numéro de l'échantillon et phi la phase initial du signal analogique (à priori elle est quelconque), en supposant l'amlitude égale à 1 volt.
Si phi=0, alors coup de bol, cela donne les échantillons suivant : 0, 1,0, -1, 0, -1, 0 etc. Donc 1 signal en "créneaux" d'amplitude 1.
Si phi=45deg (PI/4), alors les valeurs sont 0.7, 0.7, -0.7, -0.7, 0.7, 0.7, -0.7, -0.7, etc, soit un signal carré d'amplitude 0.7V (en fait racine(2)/2 soit 0.707).
On a donc une erreur sur l'amplitude apparente après numérisation de 0% à 30% environ selon la phase, et en moyenne l'erreur est de l'ordre de 10% (la valeur du sinus cardinal à cette fréquence).
Si tu envois ces données "brutalement" à un dac, tu obtiendras des signaux d'amplitudes différentes du signal initial !!!! l'amplitude du signal en sorite est dépendante de la phase en entrée !
Un dessin serait sans doute plus parlant, désolé...

Si le signal sinus est non-synchronisé avec l'horloge d'échantillonnage, tu auras en pratique un "glissement de phase", et du coup le sinus en sortie paraitra modulé en amplitude (de 30%!) à une fréquence correspondant au "battement" entre le signal et l'horloge numérique.

Tu auras sans doute remarqué que je parle d'amplitude "apparente" pour le signal numérique, car avec un sinus stationnaire à Fe/4, les hypothèses de Shannon et autres sont vérifiées : quand f<Fe/2, Shannon dit qu'il n'y a pas de perte d'information, il a juste oublié de préciser que le signal numérisé n'a pas forcément la même allure que le signal analogique.
Donc, même si le signal semble "bizarre" (amplitude et forme dépendant de la phase avant numérisation et ne ressemblant pas trop au signal original), il contient toutes les informations dont on a besoin pour reconstruire le signal original. D'ailleurs, en faisant une FFT, on devrait trouver la même chose dans les 2 cas que je présente.

Pour retrouver l'infos avant de l'envoyer au dac, il faut chercher quelle combinaison de sinus de fréquence <Fe/2 passe par tous les points. Fourier permet de dire que cette combinaison est unique si le signal est purement périodique (=stationnaire). Cela correspond dans notre cas à un sinus d'amplitude 1V, et heureusement...
Mais la "reconstruction" en question n'est pas hyper-simple et dépend beaucoup du signal concerné : dans le cas où phi=45deg dans mon exemple, il faut (entre autres) rajouter une "bosse" de 0.3V entre 2 points d'échantillonnage. On voit donc clairement qu'il faut forcément qu'il se passe "des choses" entre 2 points d'échantillonnage (car un dac maintient la sortie constante entre 2 échantillons)...
C'est là que les algo de sur-échantillonnage avec des calcul DSP évolués entrent en scène, comme on en trouve dans certaines platines CD récentes (ou dac externes) : le but est bien de reconstruire le signal entre les différents échantillons.

cet effet est il propre aux ADC PCM ou commun à tous les ADC y compris les Delta-Sigma ?
En fait, comme tu peux le voir, je ne fais aucune hypothèse sur le can utilisé, car c'est "intrinsèque" au codage pcm...

Pour résumer, je peux présenter les choses un peu différement : le codage numérique pcm ne fournit la tension de sortie que à intervalle régulier, et c'est au dac de "deviner" ce qu'il faut mettre entre 2 échantillons. Et un dac ordinaire se contente bètement de conserver la sortie constante jusqu'à l'échantillon suivant, ce qui donne des "marches d'escalier".
Si on veut éviter cela, il faut rajouter des traitements pour "joindre les points" de façon plus réaliste... Ce qui impose sur-échantillonnage dans le dac et traitement du signal.

J'espère que cela éclaire un peu ?

jb (qui a ENCORE fait un roman... :oops: )
Dernière édition par jbcauchy le 03 Mar 2003 22:35, édité 1 fois.
jbcauchy
 
Messages: 3117
Inscription Forum: 22 Oct 2001 2:00
Localisation: Chatellerault
  • offline


Retourner vers Lecteurs CD & SACD