Sur échantillonnage et filtre.
Sur échantillonnage et filtre.
Alors voilà, je me pose ces deux questions, quel est l'intérêt d'un sur-échantillonnage ? Et qu'induise les filtres ?
Je vois de nombreuses marques qui sur-échantillonne les signaux entrant parfois dans des proportions énormes (je viens de voir sur on-mag une marque qui ré-échantillonne tout en DSD512).
Je pense aussi à ESS et leur processus Hyperstream. Bref du ré-échantillonnage on en voit un peu partout, on peut même le faire soit même avec un logiciel (genre foobar). Mais quel est le véritable intérêt de faire ça ? Dans ce que j'ai testé, je n'ai constaté aucune différence avec le signal de base.
Idem pour les filtres, on parle de slow roll-off, fast roll-off, apodizing etc... Quesaco ?
Encore une fois j'ai jamais constaté de différence.
Si quelqu'un pourrait éclairer ma lanterne sur l'utilité de ces choses, ce serait bien sympa !
Je vois de nombreuses marques qui sur-échantillonne les signaux entrant parfois dans des proportions énormes (je viens de voir sur on-mag une marque qui ré-échantillonne tout en DSD512).
Je pense aussi à ESS et leur processus Hyperstream. Bref du ré-échantillonnage on en voit un peu partout, on peut même le faire soit même avec un logiciel (genre foobar). Mais quel est le véritable intérêt de faire ça ? Dans ce que j'ai testé, je n'ai constaté aucune différence avec le signal de base.
Idem pour les filtres, on parle de slow roll-off, fast roll-off, apodizing etc... Quesaco ?
Encore une fois j'ai jamais constaté de différence.
Si quelqu'un pourrait éclairer ma lanterne sur l'utilité de ces choses, ce serait bien sympa !
-
- J'ai des câbles en or massif
- Messages : 2203
- Inscription : 02 févr. 2017 08:56
- Localisation : Nord
- Contact :
De ce que j'ai compris, le "upsampling" permettrait une meilleure conversion.
En gros, pour un DAC, il serait plus qualitatif de convertir un signal en 24/192 (par exemple) qu'un signal en 16/44 y compris si le 24/192 était à la base un 16/44 passé dans une puce de sur-échantillonnage.
A confirmer cependant !
En gros, pour un DAC, il serait plus qualitatif de convertir un signal en 24/192 (par exemple) qu'un signal en 16/44 y compris si le 24/192 était à la base un 16/44 passé dans une puce de sur-échantillonnage.
A confirmer cependant !
Fichers Flac du PC ==> Schiit PYST USB ==> Schiit Gungnir Multibit Gen5 ==> Schiit PYST XLR ==> Schiit Mjolnir 2 ==> Forza AudioWorks Noir Hybrid HPC ==> Audeze LCD-X (2016)
Merde alors !
Merde alors !
- Zetsubou-sensei
- Je mange des Kellogg's Corn Flac
- Messages : 1293
- Inscription : 15 mai 2013 00:20
- Contact :
Attention, je préviens de suite que je vais faire des simplifications afin de répondre à la question et pouvoir être compris par le plus grand nombre, sans vouloir rentrer dans les domaines du traitement de signal et des outils mathématiques en audio.
Suréchantillonner en début de chaîne dans un DAC permet d'éviter de multiplier les erreurs en passant massivement par le module d'interpolation en fin de chaîne.
Mathématiquement, tu auras moins d'erreurs (bruit de fond) en augmentant artificiellement la résolution globale de ton signal numérique en entrée (nombre de points de ta courbe audio), qu'en tentant de déterminer comment lisser ton signal analogique (provenant d'un signal numérique non suréchantillonné) entre chaque point - avec l'un des nombreux algorithmes mathématiques en interpolation sur la sortie vers l'amplification.
Le fait de suréchantillonner un signal pose un souci tout de même et j'en donne un gros indice avant.
On induit du bruit audio dans le signal dans le spectre audible (ringing), qui a tendance à être de plus en plus présent sur les signaux aux fréquences les plus élevées de ton signal.
De ce fait, on peut appliquer des filtres afin de diminuer, voire couper net sur les fréquences incriminées.
On peut couper de manière brickwall : on élimine tout ce qui est par exemple à partir de 17kHz.
Soit couper progressivement avec un roll-off plus ou moins accentué (SHARP ou SLOW).
De nouvelles techniques dérivées du monde de la vidéo et de la photo/astronomie arrivent sur les DACs audio, comme l'apodizing.
Fonction mathématique qui arrive à faire corriger plus ou moins finement les effets de bord et les erreurs d'interpolation.
Je ne maîtrise pas le domaine de l'apodization; peut-être que les acharnés en photo de ce forum pourraient t'en parler bien mieux que moi.
Suréchantillonner en début de chaîne dans un DAC permet d'éviter de multiplier les erreurs en passant massivement par le module d'interpolation en fin de chaîne.
Mathématiquement, tu auras moins d'erreurs (bruit de fond) en augmentant artificiellement la résolution globale de ton signal numérique en entrée (nombre de points de ta courbe audio), qu'en tentant de déterminer comment lisser ton signal analogique (provenant d'un signal numérique non suréchantillonné) entre chaque point - avec l'un des nombreux algorithmes mathématiques en interpolation sur la sortie vers l'amplification.
Le fait de suréchantillonner un signal pose un souci tout de même et j'en donne un gros indice avant.
On induit du bruit audio dans le signal dans le spectre audible (ringing), qui a tendance à être de plus en plus présent sur les signaux aux fréquences les plus élevées de ton signal.
De ce fait, on peut appliquer des filtres afin de diminuer, voire couper net sur les fréquences incriminées.
On peut couper de manière brickwall : on élimine tout ce qui est par exemple à partir de 17kHz.
Soit couper progressivement avec un roll-off plus ou moins accentué (SHARP ou SLOW).
De nouvelles techniques dérivées du monde de la vidéo et de la photo/astronomie arrivent sur les DACs audio, comme l'apodizing.
Fonction mathématique qui arrive à faire corriger plus ou moins finement les effets de bord et les erreurs d'interpolation.
Je ne maîtrise pas le domaine de l'apodization; peut-être que les acharnés en photo de ce forum pourraient t'en parler bien mieux que moi.
Dernière modification par Zetsubou-sensei le 19 avr. 2017 20:04, modifié 1 fois.
Je réponds à vos messages dans des délais les plus rapides dont il m'est possible.
Merci de votre patience.
Merci de votre patience.
- DarkZunicorn
- Audio spammeur en force
- Messages : 19491
- Inscription : 01 sept. 2011 13:29
- Contact :
Lumineux ! Merci beaucoup, Zet.
Tanchjim Space → Raptgo Hook-X avec Lunashops LN008426 et Azla Sedna Crystal
Tanchjim Luna → TinHIFI P1 Max II Giant Panda avec IvipQ 539 et SpinFit W1
F.Audio DS02 → Shozy P20 avec Lunashops LN008523 et FiiO HS18
Pioneer U-05-S → Geshelli Erish → Fostex TH-610 avec Lunashops LN008324 XLR4 et bonnettes d'origine
Tanchjim Luna → TinHIFI P1 Max II Giant Panda avec IvipQ 539 et SpinFit W1
F.Audio DS02 → Shozy P20 avec Lunashops LN008523 et FiiO HS18
Pioneer U-05-S → Geshelli Erish → Fostex TH-610 avec Lunashops LN008324 XLR4 et bonnettes d'origine
Merci Zets ! Voilà qui m'éclaire bien plus que les discours marketing des marques.
Donc techniquement, plus les techniques de sur-échantillonnage et de filtrage seront performante, plus le son résultant sera de qualité ? ça expliquerait pourquoi les marques dépensent parfois des sommes astronomique dans ce domaine précis.
Donc techniquement, plus les techniques de sur-échantillonnage et de filtrage seront performante, plus le son résultant sera de qualité ? ça expliquerait pourquoi les marques dépensent parfois des sommes astronomique dans ce domaine précis.
- Zetsubou-sensei
- Je mange des Kellogg's Corn Flac
- Messages : 1293
- Inscription : 15 mai 2013 00:20
- Contact :
En faire plus est parfois l'ennemi du mieux.
Dans le domaine des DACs PCM Sigma/Delta, dans les connaissances actuelles dont j'ai à disposition, on peut approcher à une meilleure qualité jusqu'un certain stade où cela ne sert plus à rien.
Voire sera délétère.
En général, il n'est pas nécessaire d'aller au delà de 4 fois la fréquence d'échantillonnage initiale en PCM, sinon l'on va créer de nouveaux artéfacts audio.
On peut le prouver mathématiquement avec l'aide de matrices et cela se voit à l'analyse à l'oscilloscope en sortie de DAC (empirisme), mais nous allons rester simples comme avant.
Il y a un moment où l'algorithme de suréchantillonnage ne peut plus être fiable pour créer des points intermédiaires; la génération de bruits va l'emporter sur la qualité globale du signal à retransmettre.
En DSD, c'est une autre affaire : le bruit audio va être généré en descente de conversion, mais il va être repoussé au delà du spectre audible.
Normalement, on devrait poser un filtre passe-bas FIR (finite impulse response) pour empêcher ce bruit de polluer la chaîne audio après la conversion.
Pour preuve.
Si vous tentez de prendre un fichier DSD et de le convertir en PCM dans la fréquence que vous conviendrez, à l'analyse spectrale, vous allez voir un GROS pic qui est en fait le bruit audio généré par la conversion DSD --> PCM (à 48kHz pour la conversion DSD64 vers PCM, à 96kHz pour le DSD128).
Bruit généré par le résultat des algorithmes de conversion actuels (Korg, Sony, kode54 pour Foobar, etc).
Ce type de bruit n'est pas existant dans un fichier d'origine en DSD et j'ai déjà lu des énormités contraires à ce sujet (dont il faudrait tordre le cou).
Pourquoi procéder au suréchantillonnage par le DAC et non par un logiciel en amont ?
Le DAC n'a qu'une tâche à traiter et de manière exclusive en continu, alors que votre système informatisé, votre DAP ou même votre streamer a une montagne de tâches à exécuter, qui peuvent prendre du retard et/ou demander du temps processeur.
Ce qui ferait apparaître les notions de jitter, de threads, de process et surtout de buffers.
Mais c'est pour une autre fois.
A suivre ?
Dans le domaine des DACs PCM Sigma/Delta, dans les connaissances actuelles dont j'ai à disposition, on peut approcher à une meilleure qualité jusqu'un certain stade où cela ne sert plus à rien.
Voire sera délétère.
En général, il n'est pas nécessaire d'aller au delà de 4 fois la fréquence d'échantillonnage initiale en PCM, sinon l'on va créer de nouveaux artéfacts audio.
On peut le prouver mathématiquement avec l'aide de matrices et cela se voit à l'analyse à l'oscilloscope en sortie de DAC (empirisme), mais nous allons rester simples comme avant.
Il y a un moment où l'algorithme de suréchantillonnage ne peut plus être fiable pour créer des points intermédiaires; la génération de bruits va l'emporter sur la qualité globale du signal à retransmettre.
En DSD, c'est une autre affaire : le bruit audio va être généré en descente de conversion, mais il va être repoussé au delà du spectre audible.
Normalement, on devrait poser un filtre passe-bas FIR (finite impulse response) pour empêcher ce bruit de polluer la chaîne audio après la conversion.
Pour preuve.
Si vous tentez de prendre un fichier DSD et de le convertir en PCM dans la fréquence que vous conviendrez, à l'analyse spectrale, vous allez voir un GROS pic qui est en fait le bruit audio généré par la conversion DSD --> PCM (à 48kHz pour la conversion DSD64 vers PCM, à 96kHz pour le DSD128).
Bruit généré par le résultat des algorithmes de conversion actuels (Korg, Sony, kode54 pour Foobar, etc).
Ce type de bruit n'est pas existant dans un fichier d'origine en DSD et j'ai déjà lu des énormités contraires à ce sujet (dont il faudrait tordre le cou).
Pourquoi procéder au suréchantillonnage par le DAC et non par un logiciel en amont ?
Le DAC n'a qu'une tâche à traiter et de manière exclusive en continu, alors que votre système informatisé, votre DAP ou même votre streamer a une montagne de tâches à exécuter, qui peuvent prendre du retard et/ou demander du temps processeur.
Ce qui ferait apparaître les notions de jitter, de threads, de process et surtout de buffers.
Mais c'est pour une autre fois.
A suivre ?
Je réponds à vos messages dans des délais les plus rapides dont il m'est possible.
Merci de votre patience.
Merci de votre patience.
Hello,
C'est un thread bien intéressant !!!
Zet, est ce que tu peux détailler un tout petit peu le point sur la limite de gain du suréchantillonnage à 4x ?
Parce que je pense comprendre la notion de ringing, dont la création est effectivement liée à l'interpolation (et qui est le chiffon rouge brandi par les partisans des NOS DAC), mais l'objectif précis des filtres est précisément (par exemple via le noise shaping des dacs delta/sigma), de repousser ce bruit en dehors des fréquences audibles (les tests de ringing faits avec des signaux carrés... mouais) et la présence de bruit - surtout des artefacts de dithering prévisibles - a plutôt, généralement, tendance à augmenter l'efficacité du filtre.
De ce que j'en comprenais, le principal défaut du suréchantillonnage c'était surtout une augmentation - directement proportionnelle au facteur de suréchantillonnage - de la sensibilité au jitter.
C'est un thread bien intéressant !!!
Zet, est ce que tu peux détailler un tout petit peu le point sur la limite de gain du suréchantillonnage à 4x ?
Parce que je pense comprendre la notion de ringing, dont la création est effectivement liée à l'interpolation (et qui est le chiffon rouge brandi par les partisans des NOS DAC), mais l'objectif précis des filtres est précisément (par exemple via le noise shaping des dacs delta/sigma), de repousser ce bruit en dehors des fréquences audibles (les tests de ringing faits avec des signaux carrés... mouais) et la présence de bruit - surtout des artefacts de dithering prévisibles - a plutôt, généralement, tendance à augmenter l'efficacité du filtre.
De ce que j'en comprenais, le principal défaut du suréchantillonnage c'était surtout une augmentation - directement proportionnelle au facteur de suréchantillonnage - de la sensibilité au jitter.
Sédentaire : DAC3 hgx -> AHB2 -> HE-6 | Nomade : DX90 -> Penta / Andromeda
- Zetsubou-sensei
- Je mange des Kellogg's Corn Flac
- Messages : 1293
- Inscription : 15 mai 2013 00:20
- Contact :
Réservé, pour le moment où je pourrais répondre à burndav comme déjà indiqué en MP avec lui.
A une autre fois, les amis.
A une autre fois, les amis.
Je réponds à vos messages dans des délais les plus rapides dont il m'est possible.
Merci de votre patience.
Merci de votre patience.