Explosé est le mot !
Le G0s propose ±0.05ppb(=±0.00005ppm)!!!!!
Le prix en Euro doit etre autour 10 à 15000
C est beau la science ! Ce que je ne sais pas c est comment on mesure cela? Est ce que cela ne provient pas plutôt qu un calcul theorique....
|
Modérateurs: Modération Forum Haute-Fidélité, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 20 invités
Les Lecteurs CD & SACD
Dualdisc : Les ventes explosent - Arrivee en France
- antonyantony
- Messages: 4022
- Inscription Forum: 06 Juin 2003 15:16
!!!!!
C'est un peu OVERKILL pour un flux cadencé à 2.8 MHz
Je crois que c'est le standard dans le monde horloge atomique = mesures physiques, etc ..
Ce qui est marrant c'est que sur le dCS Verona, il y a une option pour se synchroniser sur le "top" du GPS !
à vérifier, les specs complètes ne sont pas encore dispo
Il ne manque plus le lecteur CD NASA ou Arianespace proofed
C'est un peu OVERKILL pour un flux cadencé à 2.8 MHz
Je crois que c'est le standard dans le monde horloge atomique = mesures physiques, etc ..
Ce qui est marrant c'est que sur le dCS Verona, il y a une option pour se synchroniser sur le "top" du GPS !
à vérifier, les specs complètes ne sont pas encore dispo
Il ne manque plus le lecteur CD NASA ou Arianespace proofed
- Emile
- Messages: 2827
- Inscription Forum: 23 Fév 2003 16:19
- Localisation: Paris
Ce qui est amusant, c est que c est une veritable rupture technologique. C est tout aussi beau qu inutile ! Le top ! C est comme battre le record du 100m !
- antonyantony
- Messages: 4022
- Inscription Forum: 06 Juin 2003 15:16
Comme Pio2001, il me manque un élément sur le fonctionnement du DSD. J'arrive à la même conclusion que lui sur le fait que les niveaux de résolution sont très faibles car les bits sont additifs et non multiplicatifs (l'ordre d'arrivée des bits importe assez peu).
En effet, les docs de Sony ou Philips que j'ai pu lire indiquaient qu'ils avaient eu l'idée de ce format après avoir inventé le SuperBit Maping. Ce dernier se comprend assez bien :
si le niveau réel du signal se trouve entre les pas de quantification (A et A+1), à 1/3 de A et donc à 2/3 de A+1, alors je fais osciller le signal numérique entre A et A+1 en mettant 2 fois plus de A+1 que de A. D'où l'aspect "noise shaping", car je réduit l'incertitude de quantification d'un certain type de signal basse fréquence, mais j'introduits une oscillation à 44kHz (s'il s'agit d'un CD) qui n'existait pas dans le signal réel.
Pour le reste de la discussion, j'adhère plutôt bien à certaines remarques de JB Cauchy et GBo : Fourrier nous induit en erreur.
L'équivalence temps/fréquance est une chose à manier avec prudence car la théorie limite très fortement son application pratique : si j'ai un signal quelconque, je suis certain de pouvoir le recomposer à l'aide de sinusoides, mais pour cela, j'ai besoin d'un temps infini et d'un continuum infini de fréquence.
Ex le dirac: un signal de niveau infiniement élevé et de durée infiniment faible (le dirac) peut être reconstitué par la superposition durant un temps infini de sinusoides de toutes les fréquence (de 0 à l'inifini).
J'ai eu loccasion de "vérifier" cette théorie en manipulant des lasers terawatts (10E12 watt, le parc nucléraire français fait 100TW) mais femtoseconde (10E-15 seconde) : le laser concentre 1 joule en un temps extrêmement bref. Et bien, pour avoir une impulsion femtoseconde, il est nécessaire que le laser ait une plage de fréquences très étendue.
Le principe d'incertitude d'Eisenberg est une conséquence du modèle mathématique utilisé pour la théorie de la dualité onde-corpuscule, qui est sur les même schémas que celle utilisée pour l'analyse temps-fréquence...
Un sous produit de cette vision très théorique est le modèle de Shannon : lorsque j'échantillonne temporellement un signal (fréquence F) je suis capable de recréer des sinusoides jusqu'à F/2. Pourquoi ?
Parce que, dans l'espace des fréquence, le peigne temporel (le fait d'échnatilloner à fréquance F, donc à créer une série de diracs avec une répétition toutes les 1/F seconde) correspond à un signal caré de 0Hz à F/2.
Pour faire de la théorie ou de la physique c'est très intéressant, mais pour la reproduction de la musique cela n'a pas beaucoup d'intérêt !!!!
Comme le dit GBo, l'oreille ne perçoit pas des sinusoides au-delà de 10-20 kHz, mais perçoit très bien des impulsions brêves et non périodique (des quasi-dirac) et en plus l'oreille à besoin d'un callage temporel précis des attaques. D'autre part, l'oreille est un formidable analyseur spectral. On ne peut pas se contenter de la représentation temporelle ni de la représentation fréquentielle des ondes : on a besoin des 2.
Pourquoi les formats compressés comme le MP3 paraît (à faible bitrate) assez pauvres par rapport à l'analogique ? Parce qu'ils analysent le signal dans l'espace des fréquences et qu'ils coupent mathématiquement les hautes fréquences.
- ceci permet de gagner de la place (les notes tenues sont assez pures : la fréquence principale et qq harmoniques => on a besoin de très peu d'informations pour la coder, contrairement à la représentation temporelle où il faut le niveau exact de la pression accoustique à tout instant...)
- mais on perd la représentation des transitoires : la coupure à X kHz est faite mathématiquement donc la représentation temporelle du signal codé émousse très fortement les transitoires.
Inversement, un micro qui coupe à 20 kHz peut capter assez bien un transitoire, en tout cas beaucoup mieux que l'outil mathématique qui met à 0 toutes les fréquences supérieures à 20 kHz. En effet, au contact de l'impact le micro va réagir mécaniquement très fort, puis engendrera des oscillation très fortement amorties. L'outil mathématique produira une série d'oscillations telles que celles qui figures dans la "photo" des premières pages de ce post (celle comparant le CD, le DSD et le DVD-A). Mais, si on peut "capter" avec un micro une impulsion carré de 10µs de durée, on ne peut pas enregistrer une onde carée à 50kHz...
Pour avoir un stockage numérique de l'information, il faut le couper en rondelle : rondelles temporelles (44kHz pour le CD, 24Hz pour le cinéma), rondelles spatiales (les pixels pour l'image, la stéréo ou les 5 canaux pour le son) et enfin un découpage du niveau du signal (en pas de quantification).
Une fois que j'ai enregistré en numérique mon signal (ex : j'ai un CD de musique), que se passe-t-il ? C'est très simple : j'émets des paliers à la fréquence d'échantillonnage, le niveau du palier étant déterminé par le niveau du signal codé.
En fait, je peux faire plus compliqué : émettre une pente allant du niveau à t au niveau à t+dt, essayer de recréer une sinusoide par interpolation de n échantillons,...
Si l'on veut recréer des transitoires, la créations de paliers est très bien adaptée car on passe de 0 à 1 sans problème. Par contre, une sinusoide ne sera bien représentée que si l'on dispose de beaucoup de points ayant eux même une bonne résolution en niveau, d'où le facteur x4 ou x10 que site généralement JBCauchy pour qualifier les fréquences d'échantillonnage permettant de bien reproduire les aigus.
Pour le bruit de quantification il faut tenir compte de deux choses : le signal min que l'on veut codé, le signal max et le pas d'échantillonnage. Le signal min et max sont donné par la dynamique de la musique de l'on souhaite écouter.
Si l'on dispose de 16 bits et que la dynamique de la musique est de 60dB, il est clai qu'en PCM la résolution du signal min sera de 36dB. Est-ce suffisant?
A mon avis non : l'oreille est un bon analyseur de spectre. Or, le signal d'un instrument est composé de différentes harmoniques. En plus, au niveau le plus faible, plusieurs instruments peuvent jouer en même temps et chacun d'eux peuvent jouer plusieures notes... D'autre part, la représentation PCM du signal est temporelle et non fréquentielle. Donc, les petites erreurs de quantification du signal peuvent dégrader la manière dont les différentes sinusoides sont recrées. Lorsqu'on est face à un interféromètre comme l'oreille reliée au cerveau, les petits défauts sont parfaitement perceptibles.Les 36 dB ne servent pas à écouter les mouches voler...
Voila, j'avais envie de me défouler en balançant toutes ces remarques en vrac dans un message qui me semble peut-être légèrement indigeste
En effet, les docs de Sony ou Philips que j'ai pu lire indiquaient qu'ils avaient eu l'idée de ce format après avoir inventé le SuperBit Maping. Ce dernier se comprend assez bien :
si le niveau réel du signal se trouve entre les pas de quantification (A et A+1), à 1/3 de A et donc à 2/3 de A+1, alors je fais osciller le signal numérique entre A et A+1 en mettant 2 fois plus de A+1 que de A. D'où l'aspect "noise shaping", car je réduit l'incertitude de quantification d'un certain type de signal basse fréquence, mais j'introduits une oscillation à 44kHz (s'il s'agit d'un CD) qui n'existait pas dans le signal réel.
Pour le reste de la discussion, j'adhère plutôt bien à certaines remarques de JB Cauchy et GBo : Fourrier nous induit en erreur.
L'équivalence temps/fréquance est une chose à manier avec prudence car la théorie limite très fortement son application pratique : si j'ai un signal quelconque, je suis certain de pouvoir le recomposer à l'aide de sinusoides, mais pour cela, j'ai besoin d'un temps infini et d'un continuum infini de fréquence.
Ex le dirac: un signal de niveau infiniement élevé et de durée infiniment faible (le dirac) peut être reconstitué par la superposition durant un temps infini de sinusoides de toutes les fréquence (de 0 à l'inifini).
J'ai eu loccasion de "vérifier" cette théorie en manipulant des lasers terawatts (10E12 watt, le parc nucléraire français fait 100TW) mais femtoseconde (10E-15 seconde) : le laser concentre 1 joule en un temps extrêmement bref. Et bien, pour avoir une impulsion femtoseconde, il est nécessaire que le laser ait une plage de fréquences très étendue.
Le principe d'incertitude d'Eisenberg est une conséquence du modèle mathématique utilisé pour la théorie de la dualité onde-corpuscule, qui est sur les même schémas que celle utilisée pour l'analyse temps-fréquence...
Un sous produit de cette vision très théorique est le modèle de Shannon : lorsque j'échantillonne temporellement un signal (fréquence F) je suis capable de recréer des sinusoides jusqu'à F/2. Pourquoi ?
Parce que, dans l'espace des fréquence, le peigne temporel (le fait d'échnatilloner à fréquance F, donc à créer une série de diracs avec une répétition toutes les 1/F seconde) correspond à un signal caré de 0Hz à F/2.
Pour faire de la théorie ou de la physique c'est très intéressant, mais pour la reproduction de la musique cela n'a pas beaucoup d'intérêt !!!!
Comme le dit GBo, l'oreille ne perçoit pas des sinusoides au-delà de 10-20 kHz, mais perçoit très bien des impulsions brêves et non périodique (des quasi-dirac) et en plus l'oreille à besoin d'un callage temporel précis des attaques. D'autre part, l'oreille est un formidable analyseur spectral. On ne peut pas se contenter de la représentation temporelle ni de la représentation fréquentielle des ondes : on a besoin des 2.
Pourquoi les formats compressés comme le MP3 paraît (à faible bitrate) assez pauvres par rapport à l'analogique ? Parce qu'ils analysent le signal dans l'espace des fréquences et qu'ils coupent mathématiquement les hautes fréquences.
- ceci permet de gagner de la place (les notes tenues sont assez pures : la fréquence principale et qq harmoniques => on a besoin de très peu d'informations pour la coder, contrairement à la représentation temporelle où il faut le niveau exact de la pression accoustique à tout instant...)
- mais on perd la représentation des transitoires : la coupure à X kHz est faite mathématiquement donc la représentation temporelle du signal codé émousse très fortement les transitoires.
Inversement, un micro qui coupe à 20 kHz peut capter assez bien un transitoire, en tout cas beaucoup mieux que l'outil mathématique qui met à 0 toutes les fréquences supérieures à 20 kHz. En effet, au contact de l'impact le micro va réagir mécaniquement très fort, puis engendrera des oscillation très fortement amorties. L'outil mathématique produira une série d'oscillations telles que celles qui figures dans la "photo" des premières pages de ce post (celle comparant le CD, le DSD et le DVD-A). Mais, si on peut "capter" avec un micro une impulsion carré de 10µs de durée, on ne peut pas enregistrer une onde carée à 50kHz...
Pour avoir un stockage numérique de l'information, il faut le couper en rondelle : rondelles temporelles (44kHz pour le CD, 24Hz pour le cinéma), rondelles spatiales (les pixels pour l'image, la stéréo ou les 5 canaux pour le son) et enfin un découpage du niveau du signal (en pas de quantification).
Une fois que j'ai enregistré en numérique mon signal (ex : j'ai un CD de musique), que se passe-t-il ? C'est très simple : j'émets des paliers à la fréquence d'échantillonnage, le niveau du palier étant déterminé par le niveau du signal codé.
En fait, je peux faire plus compliqué : émettre une pente allant du niveau à t au niveau à t+dt, essayer de recréer une sinusoide par interpolation de n échantillons,...
Si l'on veut recréer des transitoires, la créations de paliers est très bien adaptée car on passe de 0 à 1 sans problème. Par contre, une sinusoide ne sera bien représentée que si l'on dispose de beaucoup de points ayant eux même une bonne résolution en niveau, d'où le facteur x4 ou x10 que site généralement JBCauchy pour qualifier les fréquences d'échantillonnage permettant de bien reproduire les aigus.
Pour le bruit de quantification il faut tenir compte de deux choses : le signal min que l'on veut codé, le signal max et le pas d'échantillonnage. Le signal min et max sont donné par la dynamique de la musique de l'on souhaite écouter.
Si l'on dispose de 16 bits et que la dynamique de la musique est de 60dB, il est clai qu'en PCM la résolution du signal min sera de 36dB. Est-ce suffisant?
A mon avis non : l'oreille est un bon analyseur de spectre. Or, le signal d'un instrument est composé de différentes harmoniques. En plus, au niveau le plus faible, plusieurs instruments peuvent jouer en même temps et chacun d'eux peuvent jouer plusieures notes... D'autre part, la représentation PCM du signal est temporelle et non fréquentielle. Donc, les petites erreurs de quantification du signal peuvent dégrader la manière dont les différentes sinusoides sont recrées. Lorsqu'on est face à un interféromètre comme l'oreille reliée au cerveau, les petits défauts sont parfaitement perceptibles.Les 36 dB ne servent pas à écouter les mouches voler...
Voila, j'avais envie de me défouler en balançant toutes ces remarques en vrac dans un message qui me semble peut-être légèrement indigeste
- Abraham.ctl
- Messages: 2016
- Inscription Forum: 09 Mar 2003 2:13
- Localisation: Paris
Ce qui est amusant avec le G-0, c est que c est une veritable rupture technologique. C est tout aussi beau qu inutile ! Le top ! C est comme battre le record du 100m !
- antonyantony
- Messages: 4022
- Inscription Forum: 06 Juin 2003 15:16
Pas du tout indigeste Abraham.ctl, intéressant et je partage ton avis sur les limites d'une assimilation fréquenciel / temporel; du coup à mon sens les explications de Pio2001, qui ne reposent que sur cette assimilation, ne sont pas justes. Je serai moi même bien incapable d'en donner de bonnes, mais pour moi il est évident qu'assimiler peu ou prou une impulsion de 10µs à une portion d'onde de fréquence 50 kHz, c'est intellectuellement et mathématiquement faux, car Shannon n'exprime qu'une approximation.
En revanche, il est évident que l'ordre des bits a une importantce en SACD, l'inverse signifierait, en poussant le raisonnement, que
Si j'ai bien compris le flux de bits SACD n'est pas vraiment additif, en tout cas pas au sens ou on peut ajouter tous les bits sur une période donnée et en déduire une hauteur de signal (les valeurs ne sont pas absolues !), cela relève plutôt, pour faire un parallèle avec des maths de base, d'un mécanisme d'intégration.
Mais je peux me tromper, je reste un béotien dans ce domaine
En revanche, il est évident que l'ordre des bits a une importantce en SACD, l'inverse signifierait, en poussant le raisonnement, que
Si j'ai bien compris le flux de bits SACD n'est pas vraiment additif, en tout cas pas au sens ou on peut ajouter tous les bits sur une période donnée et en déduire une hauteur de signal (les valeurs ne sont pas absolues !), cela relève plutôt, pour faire un parallèle avec des maths de base, d'un mécanisme d'intégration.
Mais je peux me tromper, je reste un béotien dans ce domaine
La configuration dans mon profil
J'aurais voulu être un artiiiiiiiiiiiste .... ouillllllle
Finalement la HiFi c'est pas mal ;-)
- Kador
- Membre HCFR
- Messages: 3617
- Inscription Forum: 14 Mar 2002 2:00
- Localisation: 31 cassoulpif
Bonjour Abraham. Merci pour ton message, mais peut être l'as-tu écrit un peu hâtivement. J'espère que je ne tape pas trop sur les nerfs des lecteurs en prenant systématiquement le contrepied de ce que les gens écrivent ici, mais une fois encore, j'aimerais réagir. De toutes façons, certains points sont inexacts.
Oui, en audio, on se limite à 22, 48, 96 ou 100 kHz, suivant les formats. Tout le monde sait cela. Je précise juste pour le "temps infini", que cela limite simplement les plus basses fréquences reproductibles. Plus on dispose de temps, plus on peut reproduire des fréquences basses. Il suffit de disposer d'assez de temps pour dessiner une oscillation complète. Ce n'est donc pas une limitation des formats actuels.
Comme tu le dis toi-même si j'ai un signal quelconque, je suis certain de pouvoir le recomposer à l'aide de sinusoides. On a vu qu'on avait assez de temps et de résolution temporelle (passe bas / passe haut). Donc impulsion ou somme de sinusoides, c'est deux façons différentes d'écrire le même signal. C'est comme écrire "3+1" au lieu de "1+2+1" pour désigner le même nombre : 4. Cela n'a donc aucun sens de parler d'une différence entre une "impulsion" et des "sinusoides". La où cela se corse, c'est lorsqu'on considère le traitement de ce signal.
Un processus, comme l'audition humaine, est dit "non linéaire" lorsque la somme des effets n'est pas égale à l'effet de la somme. Pas exemple si les sinusoide de haute fréquences seules sont inaudibles, mais si, sommées avec des sinusoides de basse fréquence, elle agissent sur l'audition, on a un cas de distortion non linéaire.
L'exemple le plus simple est la distortion d'intermodulation. Si on joue par exemple une fréquence de 6 kHz dans une enceinte, l'effet est la génération par le haut parleur d'un son de 6 kHz. Idem à 18 kHz. Or, en théorie, lorsqu'on joue la somme des deux (6 kHz+18 kHz, ce qui, pour ceux qui suivent, est un signal carré de 6 kHz coupé à 20 kHz), le haut parleur produit non seulement un son de 6 kHz et un son de 18 kHz, mais aussi un son de 12 kHz (f2-f1) et encore un autre de 24 kHz (f1+f2). L'effet de la somme (6 et 12 et 18 et 24) est supérieur à la somme des effets (6 et 18). En pratique, c'est effectivement ce qui se produit quand le tweeter ne grille pas !
L'effet existe aussi dans l'oreille humaine, mais la grande question, c'est de savoir s'il peut exister entre une fréquence ayant un effet (10 kHz, par exemple), et une autre qui n'a PAS d'effet seule (50 kHz, par exemple). En théorie, cela paraît très improbable (l'organe de Corti ne réagit pas à ces fréquences). En pratique, les résultats des expériences sont plutôt négatifs (moi qui n'entend pas au delà de 16 kHz, j'entends le 12 kHz quand 6 et 18 sont joués dans le même tweeter, mais pas si l'un est joué dans le tweeter gauche et l'autre dans le tweeter droit, voir l'expérience de Griesinger plus haut). Seule l'expérience d'Oohashi, dont la reproduction a échoué, a représenté un succès.
D'autre part, on a vu plus haut que les audiophiles se contentent d'invoquer des améliorations du son dans la bande audible, dus à la méthode antialias utilisée (mais sans fournir de taux de distortion pour en justifier la possibilité), pour justifier des différences audibles entre le CD et les formats HD. L'intermodulation entre ultrasons et sons audible, peu probable, dont l'existence n'est pas confirmée, semble donc ne pas jouer un rôle important.
Entre les voies gauche et droite seulement, ce qui ne pose aucun problème au CD. Quand à l'expérience de S. Yoshikawa, S. Noge, T. Yamamoto, and K. Saito, il faudrait l'analyser plus en détail : d'abord le fait présenté paraît plutôt invraisemblable.
Les différences d'intervalles à reconnaitres étaient de l'ordre de 20 % de 0.125 secondes, soit 1/20e de seconde, et la variable modifiée était le passe bas : 20 ou 40 kHz, soit une dispersion temporelle de 1/40000e ou 1/80000e de seconde. Ils en concluent qu'on fait mieux la différence entre 5 mètres et 6 mètres si l'instrument de mesure utilisé est précis au demi-millimètre ou au quart de millimètre !
J'aimerais vérifier les calculs qui les ont conduits à affirmer que "widening the frequency band improves perceptual time-axis resolution of a digital audio signal." Ces calculs de probabilité basés sur les résultats des 11 sujets peuvent parfois être cauchemardesques.
Peux-tu développer ? N'oublies pas que l'on ne parle que de représentation, donc d'outils mathématiques et non d'objets concrets. Dans l'absolu, on n'a besoin d'aucune des deux pour avoir du son.
Excuse-moi d'être sevère, mais c'est malheureusement entièrement faux ! Le MP3 émousse les transitoires même si tu désactives complètement le passe-bas et encodes toutes les fréquences.
La raison pour laquelle les transitoires sont émoussées est que la taille des blocs est limitée à 576 échantillons (long block), ou 192 échantillons (short block), ce qui donne une résolution temporelle d'au mieux 4.3 ms (4300 µs) à 44100 Hz. Mais c'est surtout lorsque les transitoires sont encodées dans les long blocks que cela pose des problèmes (résolution temporelle : 12900 µs). C'est d'ailleurs pour cela que certaines version de l'encodeur Xing étaient si mauvaises : elles n'utilisaient que des long blocks ! Les presets utilisés dans l'encodeur Lame, qui forcent l'utilisation des short blocks pour les transitoires, améliorent déjà bien les choses.
On ne peut certainement pas capter une transitoire de 10 µs avec un microphone qui coupe à 20 kHz !! Je demande à voir ! Le signal de sortie fera forcément au moins 25 µs.
Le micro capte mieux les transitoires en cas d'oscillation audible (ne serait-ce pas d'ailleurs une résonance mécanique n'ayant rien à voir avec la fréquence de coupure du micro ?), parce qu'il se comporte comme un filtre IIR et non FIR, donc l'oscillation se trouve toute entière après l'impulsion, alors qu'avec un "outil mathématique", on a une partie de l'oscillation avant et une partie après. Or par effet de masque temporel, l'impulsion nous empèche d'entendre l'oscillation qui la suit, alors que rien ne s'oppose à la perception de celle qui est avant.
Mais non, on supprime ces paliers pour éviter d'envoyer du bruit ultrasonore dans les amplis et les tweeters ! La transitoire est parfaitement reproduite dans la bande de fréquence considérée si on lisse tous les paliers. Encore et toujours : quand on passe une transitoire dans un passe bas idéal, elle s'aplatit et s'élargit !
Donc si on admet que les formats haute résolution améliorent la reproduction des fréquences audibles en permettant une marge de manoeuvre accrue, sans que les ultrasons ne participent en eux mêmes à la qualité du son, on admet aussi qu'une transitoire de 25 µs de large représente un Dirac parfait, parce que la transformée de Fourier inverse d'une fonction escalier à 20 kHz est un sinus cardinal de 25 µs de large !
Si en revanche on exige une précision temporelle de 10 µs au moins, alors on est obligés d'utiliser des super tweeters montant à 50 kHz !
Simple erreur d'analyse : si tu découpes le signal en harmoniques, alors le plus bas niveau quantifiable est très en dessous de -96 db ! Prends un fichier wav quelconque de 16 bits, ouvre le dans un éditeur de wav, baisse le volume de 60 db, et fais une analyse spectrale. SoundForge me donne à ceretaines fréquence des signaux de -130 db, et toujours en 16 bits !
Pourquoi ? Tout simplement parce qu'on peut descendre à -96 db à tout instant t, et donc en disposant des échantillons de -96 db à intervalles irréguliers, et non périodique, on construit une onde faite de multiples fréquences, et dont le niveau total vaut -96 db, mais dont le niveau de chaque harmonique, pris séparément, est très inférieur.
Donc l'argument tombe à l'eau : oui les harmoniques qui composent le son peuvent tomber bien en dessous de -96 db, mais ils sont tout de même conservés en quantifiant en 16 bits.
Abraham.ctl a écrit:si j'ai un signal quelconque, je suis certain de pouvoir le recomposer à l'aide de sinusoides, mais pour cela, j'ai besoin d'un temps infini et d'un continuum infini de fréquence.
Oui, en audio, on se limite à 22, 48, 96 ou 100 kHz, suivant les formats. Tout le monde sait cela. Je précise juste pour le "temps infini", que cela limite simplement les plus basses fréquences reproductibles. Plus on dispose de temps, plus on peut reproduire des fréquences basses. Il suffit de disposer d'assez de temps pour dessiner une oscillation complète. Ce n'est donc pas une limitation des formats actuels.
Abraham.ctl a écrit:Comme le dit GBo, l'oreille ne perçoit pas des sinusoides au-delà de 10-20 kHz, mais perçoit très bien des impulsions brêves et non périodique (des quasi-dirac)
Comme tu le dis toi-même si j'ai un signal quelconque, je suis certain de pouvoir le recomposer à l'aide de sinusoides. On a vu qu'on avait assez de temps et de résolution temporelle (passe bas / passe haut). Donc impulsion ou somme de sinusoides, c'est deux façons différentes d'écrire le même signal. C'est comme écrire "3+1" au lieu de "1+2+1" pour désigner le même nombre : 4. Cela n'a donc aucun sens de parler d'une différence entre une "impulsion" et des "sinusoides". La où cela se corse, c'est lorsqu'on considère le traitement de ce signal.
Un processus, comme l'audition humaine, est dit "non linéaire" lorsque la somme des effets n'est pas égale à l'effet de la somme. Pas exemple si les sinusoide de haute fréquences seules sont inaudibles, mais si, sommées avec des sinusoides de basse fréquence, elle agissent sur l'audition, on a un cas de distortion non linéaire.
L'exemple le plus simple est la distortion d'intermodulation. Si on joue par exemple une fréquence de 6 kHz dans une enceinte, l'effet est la génération par le haut parleur d'un son de 6 kHz. Idem à 18 kHz. Or, en théorie, lorsqu'on joue la somme des deux (6 kHz+18 kHz, ce qui, pour ceux qui suivent, est un signal carré de 6 kHz coupé à 20 kHz), le haut parleur produit non seulement un son de 6 kHz et un son de 18 kHz, mais aussi un son de 12 kHz (f2-f1) et encore un autre de 24 kHz (f1+f2). L'effet de la somme (6 et 12 et 18 et 24) est supérieur à la somme des effets (6 et 18). En pratique, c'est effectivement ce qui se produit quand le tweeter ne grille pas !
L'effet existe aussi dans l'oreille humaine, mais la grande question, c'est de savoir s'il peut exister entre une fréquence ayant un effet (10 kHz, par exemple), et une autre qui n'a PAS d'effet seule (50 kHz, par exemple). En théorie, cela paraît très improbable (l'organe de Corti ne réagit pas à ces fréquences). En pratique, les résultats des expériences sont plutôt négatifs (moi qui n'entend pas au delà de 16 kHz, j'entends le 12 kHz quand 6 et 18 sont joués dans le même tweeter, mais pas si l'un est joué dans le tweeter gauche et l'autre dans le tweeter droit, voir l'expérience de Griesinger plus haut). Seule l'expérience d'Oohashi, dont la reproduction a échoué, a représenté un succès.
D'autre part, on a vu plus haut que les audiophiles se contentent d'invoquer des améliorations du son dans la bande audible, dus à la méthode antialias utilisée (mais sans fournir de taux de distortion pour en justifier la possibilité), pour justifier des différences audibles entre le CD et les formats HD. L'intermodulation entre ultrasons et sons audible, peu probable, dont l'existence n'est pas confirmée, semble donc ne pas jouer un rôle important.
Abraham.ctl a écrit:et en plus l'oreille à besoin d'un callage temporel précis des attaques.
Entre les voies gauche et droite seulement, ce qui ne pose aucun problème au CD. Quand à l'expérience de S. Yoshikawa, S. Noge, T. Yamamoto, and K. Saito, il faudrait l'analyser plus en détail : d'abord le fait présenté paraît plutôt invraisemblable.
Les différences d'intervalles à reconnaitres étaient de l'ordre de 20 % de 0.125 secondes, soit 1/20e de seconde, et la variable modifiée était le passe bas : 20 ou 40 kHz, soit une dispersion temporelle de 1/40000e ou 1/80000e de seconde. Ils en concluent qu'on fait mieux la différence entre 5 mètres et 6 mètres si l'instrument de mesure utilisé est précis au demi-millimètre ou au quart de millimètre !
J'aimerais vérifier les calculs qui les ont conduits à affirmer que "widening the frequency band improves perceptual time-axis resolution of a digital audio signal." Ces calculs de probabilité basés sur les résultats des 11 sujets peuvent parfois être cauchemardesques.
Abraham.ctl a écrit:D'autre part, l'oreille est un formidable analyseur spectral. On ne peut pas se contenter de la représentation temporelle ni de la représentation fréquentielle des ondes : on a besoin des 2.
Peux-tu développer ? N'oublies pas que l'on ne parle que de représentation, donc d'outils mathématiques et non d'objets concrets. Dans l'absolu, on n'a besoin d'aucune des deux pour avoir du son.
Abraham.ctl a écrit:Pourquoi les formats compressés comme le MP3 paraît (à faible bitrate) assez pauvres par rapport à l'analogique ? [...] ils coupent mathématiquement les hautes fréquences. [...]- mais on perd la représentation des transitoires : la coupure à X kHz est faite mathématiquement donc la représentation temporelle du signal codé émousse très fortement les transitoires.
Excuse-moi d'être sevère, mais c'est malheureusement entièrement faux ! Le MP3 émousse les transitoires même si tu désactives complètement le passe-bas et encodes toutes les fréquences.
La raison pour laquelle les transitoires sont émoussées est que la taille des blocs est limitée à 576 échantillons (long block), ou 192 échantillons (short block), ce qui donne une résolution temporelle d'au mieux 4.3 ms (4300 µs) à 44100 Hz. Mais c'est surtout lorsque les transitoires sont encodées dans les long blocks que cela pose des problèmes (résolution temporelle : 12900 µs). C'est d'ailleurs pour cela que certaines version de l'encodeur Xing étaient si mauvaises : elles n'utilisaient que des long blocks ! Les presets utilisés dans l'encodeur Lame, qui forcent l'utilisation des short blocks pour les transitoires, améliorent déjà bien les choses.
Abraham.ctl a écrit:Inversement, un micro qui coupe à 20 kHz peut capter assez bien un transitoire, en tout cas beaucoup mieux que l'outil mathématique qui met à 0 toutes les fréquences supérieures à 20 kHz.[...] Mais, si on peut "capter" avec un micro une impulsion carré de 10µs de durée, on ne peut pas enregistrer une onde carée à 50kHz...
On ne peut certainement pas capter une transitoire de 10 µs avec un microphone qui coupe à 20 kHz !! Je demande à voir ! Le signal de sortie fera forcément au moins 25 µs.
Le micro capte mieux les transitoires en cas d'oscillation audible (ne serait-ce pas d'ailleurs une résonance mécanique n'ayant rien à voir avec la fréquence de coupure du micro ?), parce qu'il se comporte comme un filtre IIR et non FIR, donc l'oscillation se trouve toute entière après l'impulsion, alors qu'avec un "outil mathématique", on a une partie de l'oscillation avant et une partie après. Or par effet de masque temporel, l'impulsion nous empèche d'entendre l'oscillation qui la suit, alors que rien ne s'oppose à la perception de celle qui est avant.
Abraham.ctl a écrit:Si l'on veut recréer des transitoires, la créations de paliers est très bien adaptée car on passe de 0 à 1 sans problème.
Mais non, on supprime ces paliers pour éviter d'envoyer du bruit ultrasonore dans les amplis et les tweeters ! La transitoire est parfaitement reproduite dans la bande de fréquence considérée si on lisse tous les paliers. Encore et toujours : quand on passe une transitoire dans un passe bas idéal, elle s'aplatit et s'élargit !
Donc si on admet que les formats haute résolution améliorent la reproduction des fréquences audibles en permettant une marge de manoeuvre accrue, sans que les ultrasons ne participent en eux mêmes à la qualité du son, on admet aussi qu'une transitoire de 25 µs de large représente un Dirac parfait, parce que la transformée de Fourier inverse d'une fonction escalier à 20 kHz est un sinus cardinal de 25 µs de large !
Si en revanche on exige une précision temporelle de 10 µs au moins, alors on est obligés d'utiliser des super tweeters montant à 50 kHz !
Abraham.ctl a écrit:Si l'on dispose de 16 bits et que la dynamique de la musique est de 60dB, il est clai qu'en PCM la résolution du signal min sera de 36dB. Est-ce suffisant?
A mon avis non : l'oreille est un bon analyseur de spectre. Or, le signal d'un instrument est composé de différentes harmoniques. En plus, au niveau le plus faible, plusieurs instruments peuvent jouer en même temps et chacun d'eux peuvent jouer plusieures notes... D'autre part, la représentation PCM du signal est temporelle et non fréquentielle. Donc, les petites erreurs de quantification du signal peuvent dégrader la manière dont les différentes sinusoides sont recrées. Lorsqu'on est face à un interféromètre comme l'oreille reliée au cerveau, les petits défauts sont parfaitement perceptibles. Les 36 dB ne servent pas à écouter les mouches voler...
Simple erreur d'analyse : si tu découpes le signal en harmoniques, alors le plus bas niveau quantifiable est très en dessous de -96 db ! Prends un fichier wav quelconque de 16 bits, ouvre le dans un éditeur de wav, baisse le volume de 60 db, et fais une analyse spectrale. SoundForge me donne à ceretaines fréquence des signaux de -130 db, et toujours en 16 bits !
Pourquoi ? Tout simplement parce qu'on peut descendre à -96 db à tout instant t, et donc en disposant des échantillons de -96 db à intervalles irréguliers, et non périodique, on construit une onde faite de multiples fréquences, et dont le niveau total vaut -96 db, mais dont le niveau de chaque harmonique, pris séparément, est très inférieur.
Donc l'argument tombe à l'eau : oui les harmoniques qui composent le son peuvent tomber bien en dessous de -96 db, mais ils sont tout de même conservés en quantifiant en 16 bits.
- Pio2001
- Contributeur HCFR 2019
- Messages: 9116
- Inscription Forum: 07 Oct 2003 12:50
- Localisation: Neuville-sur-Saône
Il y a un autre point à mes yeux très important qui fait que plus la fréquence d'échantillonage est grande, meilleure est la qualité : l'endroit de la sinusoïde où se produit l'échantillonage.
Prenons l'exemple d'une fréquence fixe à 22.05 KHz échantillonée à 44.1KHz.
En une période, le signal part de zéro, passe par son maximum, puis repasse par zéro, puis son minimum et enfin revient à zéro.
L'acquisition peut advenir à n'importe quel instant de la sinusoïde, mais toujours aux mêmes endroits. Regardons les points extrèmes.
Si on tombe sur le point maxi, on aura alternativement un maxi, un mini, un maxi, etc....
Si on tombe sur le point zéro, on échantillonera que des zéros, et on perd totalement le signal.
Prenons l'exemple d'une fréquence fixe à 22.05 KHz échantillonée à 44.1KHz.
En une période, le signal part de zéro, passe par son maximum, puis repasse par zéro, puis son minimum et enfin revient à zéro.
L'acquisition peut advenir à n'importe quel instant de la sinusoïde, mais toujours aux mêmes endroits. Regardons les points extrèmes.
Si on tombe sur le point maxi, on aura alternativement un maxi, un mini, un maxi, etc....
Si on tombe sur le point zéro, on échantillonera que des zéros, et on perd totalement le signal.
- Xéna
- Messages: 2072
- Inscription Forum: 09 Oct 2001 2:00
- Localisation: ROQUEVAIRE ( 13 )
Il faut voir sur combien de périodes le phénomène se produit.
- Philippe Muller
- Professionnel
- Messages: 4405
- Inscription Forum: 14 Déc 2003 22:20
Xéna a écrit:Il y a un autre point à mes yeux très important qui fait que plus la fréquence d'échantillonage est grande, meilleure est la qualité : l'endroit de la sinusoïde où se produit l'échantillonage.
Prenons l'exemple d'une fréquence fixe à 22.05 KHz échantillonée à 44.1KHz.
En une période, le signal part de zéro, passe par son maximum, puis repasse par zéro, puis son minimum et enfin revient à zéro.
L'acquisition peut advenir à n'importe quel instant de la sinusoïde, mais toujours aux mêmes endroits. Regardons les points extrèmes.
Si on tombe sur le point maxi, on aura alternativement un maxi, un mini, un maxi, etc....
Si on tombe sur le point zéro, on échantillonera que des zéros, et on perd totalement le signal.
C'est bien pour ça que le théorème de Shannon indique que la fréquence max reproductible est strictement inférieure à Fe/2.
Mais il s'agit d'un théorème mathématique : si on s'approche beaucoup de Fe/2, on peut se retrouver comme tu le dis avec plein de 0, sauf que le signal est de durée infini, donc au bout d'un moment on aura autre chose que des 0 (on n'est pas à Fe/2) et l'interpolation mathématique de la série de points ne donne qu'une seule solution : la fréquence, la phase et l'amplitude de la sinusoïde sont déterminées.
C'est bien pour cela que, contrairement à ce que dit Pio2001, le temps infini n'est pas seulement nécessaire pour calculer les oscillations basse fréquence, mais aussi pour calculer les oscillations hautes fréquences très proches de Fe/2.
Imagine que l'amplitude soit très forte (1000) que se passe-t-il dans la pratique si par hasard l'échantillonage commence sur le passage au neutre. Et bien , le convertisseur sortira 0 puis 0.1 puis 0.5 puis 1 puis 1.7 puis ... et il faudra une très longue période de temps pour arriver à 1000. Donc le DAC aura transformé une oscillation très haute fréquence (proche de Fe/2) en oscillation très basse fréquence. Du grand n'importe quoi .
D'où l'utilité d'augmenter la fréquence d'échantillonage par rapport à la fréquence max que l'on veut reproduire. 10 points pour reproduire correctement une sinusoïde, ce n'est pas du luxe (prendre une feuille de papier et un crayon pour s'en convaincre). Dans ce cas, le temps d'échantillonage n'a plus besoin d'être infini, mais il est tout de même de 10/Fe pour avoir une oscillation à Fmax (ce qui est finalement une application pratique de l'infini).
- Abraham.ctl
- Messages: 2016
- Inscription Forum: 09 Mar 2003 2:13
- Localisation: Paris
Philippe Muller a écrit:Il faut voir sur combien de périodes le phénomène se produit.
Si les signaux sont synchrones, c'est permanent.
Mais ce qui est important, c'est que dire qu'à 44.1KHz on reproduit correctement le 20kHz est une vue de l'esprit.
- Xéna
- Messages: 2072
- Inscription Forum: 09 Oct 2001 2:00
- Localisation: ROQUEVAIRE ( 13 )
Pio2001 a écrit:.../...Abraham.ctl a écrit:Si l'on dispose de 16 bits et que la dynamique de la musique est de 60dB, il est clai qu'en PCM la résolution du signal min sera de 36dB. Est-ce suffisant?
A mon avis non : l'oreille est un bon analyseur de spectre. Or, le signal d'un instrument est composé de différentes harmoniques. En plus, au niveau le plus faible, plusieurs instruments peuvent jouer en même temps et chacun d'eux peuvent jouer plusieures notes... D'autre part, la représentation PCM du signal est temporelle et non fréquentielle. Donc, les petites erreurs de quantification du signal peuvent dégrader la manière dont les différentes sinusoides sont recrées. Lorsqu'on est face à un interféromètre comme l'oreille reliée au cerveau, les petits défauts sont parfaitement perceptibles. Les 36 dB ne servent pas à écouter les mouches voler...
Simple erreur d'analyse : si tu découpes le signal en harmoniques, alors le plus bas niveau quantifiable est très en dessous de -96 db ! Prends un fichier wav quelconque de 16 bits, ouvre le dans un éditeur de wav, baisse le volume de 60 db, et fais une analyse spectrale. SoundForge me donne à ceretaines fréquence des signaux de -130 db, et toujours en 16 bits !
Pourquoi ? Tout simplement parce qu'on peut descendre à -96 db à tout instant t, et donc en disposant des échantillons de -96 db à intervalles irréguliers, et non périodique, on construit une onde faite de multiples fréquences, et dont le niveau total vaut -96 db, mais dont le niveau de chaque harmonique, pris séparément, est très inférieur.
Donc l'argument tombe à l'eau : oui les harmoniques qui composent le son peuvent tomber bien en dessous de -96 db, mais ils sont tout de même conservés en quantifiant en 16 bits.
Ce passage me fait m'interroger sur la technologie du CD.
Si le niveau max peut varier comment cela est-il géré par le DAC du lecteur CD ? La tension aux bornes du convertisseur est gérée par un DAC ou y a-t-il d'un traitement numérique en amont qui recale le codage du disque par rapport à l'échelle de valeur du convertisseur ?
Quelle est la périodicité du recallage du niveau max ?
- Abraham.ctl
- Messages: 2016
- Inscription Forum: 09 Mar 2003 2:13
- Localisation: Paris
Philippe Muller a écrit:Il faut voir sur combien de périodes le phénomène se produit.
Si les signaux sont synchrones, c'est permanent.
Mais ce qui est important, c'est que dire qu'à 44.1KHz on reproduit correctement le 20kHz est une vue de l'esprit.
- Xéna
- Messages: 2072
- Inscription Forum: 09 Oct 2001 2:00
- Localisation: ROQUEVAIRE ( 13 )
Philippe Muller a écrit:Il faut voir sur combien de périodes le phénomène se produit.
Si les signaux sont synchrones, c'est permanent.
Mais ce qui est important, c'est que dire qu'à 44.1KHz on reproduit correctement le 20kHz est une vue de l'esprit.
- Xéna
- Messages: 2072
- Inscription Forum: 09 Oct 2001 2:00
- Localisation: ROQUEVAIRE ( 13 )
Philippe Muller a écrit:Il faut voir sur combien de périodes le phénomène se produit.
Si les signaux sont synchrones, c'est permanent.
Mais ce qui est important, c'est que dire qu'à 44.1KHz on reproduit correctement le 20kHz est une vue de l'esprit.
- Xéna
- Messages: 2072
- Inscription Forum: 09 Oct 2001 2:00
- Localisation: ROQUEVAIRE ( 13 )
|
Retourner vers Lecteurs CD & SACD |