Die Planung eines neuen Hörzimmers befindet sich jetzt in der Umsetzungsphase. Dazu folgt ein eigener Newsletter. Der neue Schaltschrank stellt die Verbindung per LAN-Kabel an die verschiedenen Räume her. Das Originalgehäuse des Buffalo BS-GS2016 ist für den Schaltschrank zu groß, weshalb sich der Handlungsbedarf für ein neues Gehäuse ergab.
Grundlagen
Geschirmtes oder ungeschirmtes Internet Kabel
Im Schaltschrank münden die LAN Kabel aller Wohnräume. Für die Verteilung dient der Buffalo BS-GS2016. Bei den LAN Kabel hat man die Qual der Wahl.
UTP vs. FTP
Es gibt eine grobe Unterscheidung zwischen ungeschirmten UTP Kabel und einem geschirmten FTP- oder STP Kabel. UTP ist die Abkürzung für Unshielded Twisted Pair. FTP bedeutet Foiled Twisted Pair und STP Shielded Twisted Pair.
Der Aufbau, und damit die Schirmung von Internetkabeln ist mit Buchstaben gekennzeichnet.
U – Ungeschirmt: ohne Abschirmung.
F – Foil: Abschirmung mit Folie um die Adernpaare.
S – Geflecht: Die Adernpaare sind mit einem Metallgeflecht abgeschirmt.
Die Wahl zwischen UTP, FTP oder den zahlreichen Varianten hat Auswirkungen auf die Störungsfreiheit, wie unten in der Tabell zu sehen. Interessant sind die EMI-Eigenschaften: 1 (*) – schlechteste Eigenschaften, 5 (*****) – beste Eigenschaften.
Laut dieser Tabelle würde jeder das SF/FTP-Kabel empfehlen.
Gleichtaktstörungen
Gleichtaktstörungen, auch als Common-Mode-Störungen bekannt, treten in elektrischen oder elektronischen Systemen auf, wenn unerwünschte Signale oder Störungen auf gleiche Weise auf alle Leitungen oder Komponenten eines Systems einwirken. Diese Störungen können verschiedene Quellen haben, wie elektromagnetische Felder, unsymmetrische Erdpotentialunterschiede oder externe Störsignale.
Gleichtaktstörungen können die Signalqualität in einem System beeinträchtigen und zu Fehlfunktionen oder Datenverlust führen. Und wirken sich auch auf den Klang aus.
Gleichtaktstörungen von Ethernet werden über die Mittelanzapfung der Transformer in den Endgeräten über einen Kondensator auf die Gehäuse-Masse abgeführt/gekoppelt und gelangen hierdurch in das Masse-System des Endgeräts. Zusätzlich gelangen die Störungen, sofern diese nicht komplett auf Kabelseite des Transformers abgeführt werden können (und das ist in die Regel) auf der anderen Seite des Transformers in die System-Masse. Quelle: Messungen von Ethernet-Infrastruktur – Switches (Nur Lesen) – open-end-music-professional
Dummerweise werden diese Gleichtaktstörungen bei FTP-Kabel über den aufgelegten Schirm über die Masse transportiert. Bei UTP ist das nicht der Fall, weil kein Schirm aufliegt. Freilich macht die fehlende Schrimung UTP-Kabel anfällig für EMI/RFI-Störungen.
Umsetzung in der Praxis
Das neue Gehäuse
Die Platine des Buffalo BS-GS2016, welche auch für den Melco S100 verwendet wird, ist recht kompakt. So lag es nahe ein passendes Gehäuse zu konstruieren. Das geht sehr gut über Schaeffer AG Gehäuse (schaeffer-ag.de). Mit dem kostenlosen Frontplatten Designer sind gute Ergebnisse möglich. Nur aufpassen muss man, wie wir gleich sehen werden.
Alle Gehäuseteile kommen gut geschützt an.
Und hier ist das Malheur passiert: Die Halterungen der Platine in Schraubenform.
Richtig sind aber Buchsen! Ein teurer Spaß. Wenn du dich fragst, warum Geräte so teuer sind, obwohl das Material vergleichsweise preiswert ist, dann ist das ein Erklärungsansatz: Pleiten, Pech und Pannen in der Entwicklung. Forschung & Entwicklung ist teuer.
Die Buchsen passten zum Glück für die Platine. Beachte den beeindruckenden Kühlkörper. Der Hochleistungs-Chip ist eines der Geheimnisse des Buffalos für beste und störungsfreie Leistung.
Das direkt gelötete DC-Kabel von fis Audio wird von meiner selbst konstruierten Kabelklemme gehalten. Huckepack kommt die Halterung für den Schaltschrank.
Auffällig ist das Kunststoffgehäuse des RJ45-Steckers. Damit können keine Störungen übertragen werden.
Damit kein EMI/RFI über die ungeschirmte Außenhülle des Kabels gelangt, habe ich die sensiblen Stellen mit dickem Kupferblech ausgekleidet. Die Kabel sind mit 0,6m recht kurz gehalten.
Eine gute Belüftung darf nicht fehlen.
Zusammenfassung
Beim Switch im Schalt-/ oder Serverschrank kommt es darauf an, ob du ein geschirmtes oder ungeschirmtes Internet Kabel verwenden möchtest.
UTP ermöglicht, dass sich Gleichtaktstörungen nicht über die Masse bei den angeschlossenen Geräten breit macht und den Klang trübt. Aufgrund der fehlenden Schirmung musst du aber darauf achten, dass du dir nicht anderswo EMI/RFI-Störungen einfängst. Halte die Kabel daher kurz und entfernt von Wechselstrom. Emittierende Geräte kannst du mit Kupfer abschirmen.
Jeder PC benötigt Gleichstrom (DC). Aus 230V Wechselstrom (AC) werden in der ersten Stufe meist 19V Gleichstrom (DC) erzeugt. In der zweiten Stufe werden aus diesen 19V nach dem jetzigen ATX Standard die Motherboards mit 3,3V, 5V und 12V bedient. Es gibt übrigens einen neuen Standard ATX12VO, der nur noch 12V bereitstellt. Dieses Konzept wäre für einen Audio PC schlecht, da die einfachen Schaltregler dann direkt auf dem Motherboard sitzen.
Nun gibt es natürlich viele Netzteile mit ATX Spezifikation. Diese bringen die notwendigen Molex ATX-Anschlüsse gleich mit. Die von der Computerindustrie bereitgestellte Stromversorgung sind jedoch oft Schaltnetzteile von geringer Bauteilequalität und hohem Ripple Noise. Die ATX-Kabel sind meist von dünnem Querschnitt, schlechter Materialqualität und ungenügend geschirmt. Das machen wir mit dem fis Audio PC deutlich besser.
Grundlagen
Transformator
Wirkprinzip
Ein Trafo besteht meist aus zwei oder mehr Spulen (Wicklungen), die in der Regel aus isoliertem Kupferdraht gewickelt sind und sich auf einem gemeinsamen Magnetkern befinden. Ein Transformator wandelt eine Eingangswechselspannung, die an einer der Spulen angelegt ist, in eine Ausgangswechselspannung um, die an der anderen Spule abgegriffen werden kann. Dabei entspricht das Verhältnis von Eingangs- und Ausgangsspannung dem Verhältnis der Windungsanzahlen der beiden Spulen. So wird zum Beispiel bei einem Windungsverhältnis von 20 zu 1 eine Eingangsspannung von 240 Volt in eine Ausgangsspannung von 12 Volt transformiert.
Verlustleistung
Das Problem unnötig hoher Verlustleistungen bei Linearnetzteilen tritt immer dann auf, wenn die Ausgangsspannung des verbauten Trafos für den konkreten Einsatzzweck zu hoch gewählt wurde. Dies kann bei handelsüblichen Linearnetzteilen vorkommen. Besonders dann, wenn mehrere Ausgangsspannungen gewählt werden können und sich der Auswahlbereich auch noch über den tatsächlich benötigten Wert hinaus erstreckt.
Per Schalter seine Spannungen auswählen zu können ist zwar sehr bequem. Die sehr hohe Verlustleistung macht sich jedoch mit einer hohen Abwärme bemerkbar. Da hat sich schon so manches Netzteil in „Rauch“ aufgelöst.
Diese Probleme habe ich bei FARADs linearen Netzteilen noch nie festgestellt, weshalb ich deren Produkte empfehle. Zum Beispiel hat das FARAD Super10 für jede Ausgangsspannung ein optimiertes Modul und einen passgenauen Netztransformator und vermeidet dadurch die Nachteile einer hohen Verlustleistung über verschiedene Spannungen. Ein Spannungswechsel ist nachträglich trotzdem möglich und wird von FARAD ausgeführt.
FARAD SuperATX
Technischer Aufbau
Drei Transformatoren
Das FARAD SuperATX Netzteil hat 3x 150VA dreifach geschirmten kundenspezifischen Transformatoren. Einer für die CPU, einer für das Motherboard und einer für SSDs und Peripheriegeräte.
Transformator 1 und Rail 1: 12V/8A CPU EPS (max. 100W TDP)
Transformator 2 und Rail 2+3: ein volllineares 24-poliges ATX-Steckernetzteil
Transformator 3 und Rail 4+5: Dreifache Peripherieausgänge mit 5V/3A (Gesamtsumme 7,5A) und 12V/3A (Gesamtsumme 3A). Einer der Ausgänge kann auf „always on“ umgeschaltet werden.
Weitere technische Spezifikationen
Glättungskapazität von ca. 250.000uF. Langlebige automotive Kondensatoren mit niedrigem ESR und Hf-Choke-Pi-Filtern.
24x 15F Supercaps bringen eine effektive Kapazität von 17,5F bei voller Spannung. Das sind 17.500.000uF Gesamtpufferkapazität vor den endgültigen Reglern! Diese Supercaps wirken wie eine Batterie und sind in den Super3 und Super10 Netzteilen erprobt.
Doppelte Low-Noise-Regelung mit Hf-Post-Pi-Filterung für noch geringeres Ausgangsrauschen.
Mikroprozessorschutz an allen Spannungen (Über- und Unterspannungen, Kurzschlüsse usw.) und Kommunikation mit dem MoBo.
Ground-Lift-Schalter und Ground-Post, vergoldete Molex-Ausgangsanschlüsse.
Die Anschlüsse
Während das FARAD Super10 Netzteil noch einen DC/ATX-Konverter benötigt, um aus 19V die drei benötigten ATX Ausgangsspannungen mit 3,3V, 5V und 12V zu erzeugen, ist das beim FARAD SuperATX nicht mehr erforderlich. Denn hier werden die Molex Stecker direkt angeschlossen.
Das Prinzipien-Bild unten verdeutlicht die Anschlüsse. Der wichtigste Anschluss ist der für die CPU, welches mit einem 8 Pin Molex Stecker realisiert wird. Für eine PCIe-Karte für USB oder LAN können 5V abgezweigt werden. 3A reichen dafür in der Regel aus. Das Motherboard wird mit allen drei Spannungen (3,3V, 5V und 12V) von einem 24 Pin Molex Stecker mit sauberen Strom versorgt.
Der Test
Testaufbau
Beim FARAD SuperATX Netzteil handelt es sich um einen Prototypen, den mir Mattijs de Vries von Farad power supplies zu Testzwecken zur Verfügung gestellt hat. Für mein Review erhielt ich kein Honorar. Ich bin jedoch Händler von FARAD Produkten. Diese Informationen dienen zur Offenlegung meiner finanziellen Interessen.
Im Bild unten ist im Vordergrund der fis Audio PC zu sehen, welches als Betriebssystem das HQPlayer OS (Linux Echtzeit Kernel) hat. Bisher wurde es von dem JCAT OPTIMO S ATX mit sauberen Strom versorgt. Für den Test wurden das 24 Pin Molex Kabel für das Motherboard und das 8 Pin Molex Kabel für die CPU getauscht.
Mattijs warnte mich vor, dass es bei modernen Motherboards zu Problemen beim Einschalten kommen kann. Und so war es auch bei mir. Das Motherboard quittierte die Stromzufuhr noch vor betätigen des Power On Schalters mit roten LEDs und in der Fehlercode-LED mit einer „- -“ Anzeige. Erst nach einem Reset des SuperATX konnte ich dann fehlerfrei booten.
Zu allem Unglück ließ sich der fis Audio PC anschließend nicht mehr herunterfahren. Dies wurde mit dem Fehlercode „95 – PCI Bus Request Resources“ verhindert.
Die Ursache der Power On / Off Fehler liegt lt. Mattijs darin, dass die neueren Motherboards schon im Standby eine höhere Stromstärke bei 5V verlangen. Das SuperATX liefert mit 5V/3A offensichtlich zu wenig Strom. FARAD hat bereits eine Lösung dafür und die endgültige Version wird dieses Problem nicht mehr haben.
DSD1024 ist mit leichten Modulatoren möglich
Mit dieser Einstellung (DSD1024 und dem neuen experimentellen Modulator AHM7EC5L) war der Klang traumhaft. Der Bass ist sehr sauber und geht sehr tief. Die Instrumententrennung ist sehr gut, so dass die Bühnenabbildung sensationell ist. Die Höhen würde ich als seidig beschreiben, ganz ohne Schärfen.
Ich möchte nicht unerwähnt lassen, dass von den drei Trafos keinerleiBrummen zu hören war. Das FARAD SuperATX Netzteil ist völlig geräuschlos.
Version 2.0
FARAD hat schon einige Ideen für die Version 2.0, welche eine höhere CPU Rechenlast erlauben wird.
Zusammenfassung
Ich habe mich sehr auf das FARAD SuperATX gefreut. Es zeichnet FARAD aus vor der Produkteinführung umfangreiche Tests durch Dritte durchführen zu lassen. So ist sichergestellt, dass zum Beispiel die Kinderkrankheiten mit den stromhungrigen Motherboards beim endgültigen Produkt beseitigt sind.
Das Upsampling auf DSD1024 mit leichten Filtern und Modulatoren funktioniert sehr gut und der Klang ist traumhaft. Für höhere Anforderungen an die Rechenlast ist die Version 2.0 in Arbeit.
Für den fis Audio PC ist das FARAD Super10 Netzteil weiter gesetzt, welches auskömmliche 19V/10A (rund 200W) zur Verfügung stellt.
Ich bedanke mich herzlich bei den vielen Abonnenten und Mitlesenden. Es sind viele interessante Themen besprochen worden. Deshalb möchte ich im Jahresrückblick 2023 die Inhalte gesammelt darstellen.
Ultraschallanteile führen zur verstärkten Hinrnaktivität! Das war für mich der Knaller, obwohl die Forschungsergebnisse schon aus 2000 stammen. Eine weitere Studie aus 2014 zeigte, dass erst ab 32 kHz ein positiver Effekt auftrat. Am stärksten wirkte der Ultraschall zwischen 80 – 88 kHz.
Wenn nur Ultraschall ausgestrahlt wurde, war kein Effekt zu beobachten. Erst in Kombination mit den hörbaren Frequenzen reagiert der Mensch darauf. Möglicherweise ist die Hüllkurve (das Summensignal aller Frequenzen, die in einem Musikstück vorhanden sind) dafür verantwortlich. Denn diese verändert sich mit den Ultraschallanteilen.
Transienten spielen vermutlich auch eine Rolle. Nahmikrofonierte Drum-Kits / Percussions erreichen das 100 kHz Spektrum.
Ebenfalls aus der Hirnforschung kommen die Erkenntnisse, dass die Grund- und Obertöneverschiedene Hirnareale unterschiedlich ansprechen. Und der Mensch sehr individuell entweder veranlagungs- oder/und lernbedingt mehr Grund- oder Obertonhörer ist.
Lieben Grundtonhörerschnelle, kurze Impulse, virtuose Fingerübungen und präzise Rhythmen, so schmeicheln dem Obertonhörerlange, getragene Melodien, Klangfarben und Harmonien. Hier geht es zu eineminteressanten Selbsttest:
Dieser Newsletter war für manche „Bitperfekt-Hörer“ ein Aufreger. Sie wurden nämlich der Illusion beraubt, dass im DAC kein Upsampling erfolgt. Und doch ist es so. Die meisten DACs haben Chips mit der Delta-Sigma-Modulation. Das sind zum Beispiel ESS Sabre oder AKM Chips.
Hier erfolgt dann im DAC zwangsläufig ein Upsampling auf DSD. Konstruktionsbedingt kommen die DACs nie an die Rechenleistung eines Audio PCs heran. Da werden oft Interpolationen und Festkomma-Berechnungen, sowie Modulatoren niedriger Ordnung eigesetzt. Mit Messungen wurde belegt, wie das Upsampling durch einen Audio PC die Rekonstruktion deutlich verbessern kann.
Zur Vertiefung des Themas sind weitere Newsletter verfügbar:
Foren wie Audio Science Review (ASR) müssen sich auf einen gewissen Standard des Messverfahrens einigen, damit die Messergebnisse dauerhaft vergleichbar sind. Auf der anderen Seite sind Empfehlungen aufgrund „nur“ dieser Messwerte mit Vorsicht zu genießen.
An einem Beispiel wurden durch die Verwendung anderer Testinhalte gravierende Fehler aufgedeckt. Außerdem bin ich der Meinung, dass (noch) nicht alles gemessen werden kann, was wir hören, bzw. im Gehirn verarbeiten.
Dieses Thema regt viele Leute auf. Sie verweisen darauf, dass im DAC bei einer asynchronen Datenübertragung sowieso alles aus dem Puffer gelesen und neu getaktet wird. Und deshalb Jitter keine Rolle spielt.
Auf der anderen Seite gibt es Leute wie mich, die beim Reclocking gravierende Verbesserungen mit konturierterem Bass, gesteigerter Instrumententrennung und klareren Höhen ohne Schärfen feststellen. Die These von UpTone Audio sagt, dass das Phasenrauschspektrum der eingehenden Daten das Phasenrauschspektrum der lokalen Clocküberlagert. Allerdings nur im niederfrequenten Bereich (Wander). Clocks mit besten Werten bis 10Hz wie zum Beispiel ein Mutec REF10 sind extrem teuer.
Ich höre oft von Leuten, die mit Kabel, Stromversorgung und neuen Geräten versuchen den Klang zu verbessern. Und sind dann trotzdem unzufrieden. Möglicherweise werden die Auswirkungen des Raums nicht genügend bedacht.
Lautsprecher sollen einen ausreichenden Abstand zur Rück- und Seitenwand haben, um den Raum nicht zu sehr anzuregen. Gewisse Raummoden können aber nicht durch Schieben und Rücken der Lautsprecher kompensiert werden. Denn wir reden hier ab 20 Hz von Wellenlängen von bis zu 17 Metern!
343 m/sec : 20 Hz = rund 17 m (17,15 m) Wellenlänge
Eine große Rolle spielen die Nachhallzeit und der Direkt-/ und Diffusschallanteil. Oft helfen einfacheMaßnahmen wie Vorhänge, Teppiche, Deckensegel, Wandabsorber und Diffusoren, die wohnlich gestaltet werden können.
Wenn alle raumakustischen Maßnahmen ausgeschöpft wurden, empfehle ich die digitale Raum- und Lautsprecherkorrektur. Hier können dann zwei Aspekte den Hörgenuss gravierend steigern:
Der Frequenzgang wird geglättet, wobei die schnurgrade Linie nicht das Ideal ist. Vielmehr soll sich die Korrektur an psychoakustischen Effekten orientieren.
Oft wird das Timing nicht bedacht ! Als wesentliche Maßnahme wird die Sprungantwort optimiert. Synchronisiert über beide Lautsprecher. Dies verbessert die Wahrnehmung von Transienten und damit die Ortungsgenauigkeit ganz erheblich.
Aufgrund der modularen Bauweise des fis Audio PCs können recht schnell die neuesten und besten Prozessoren eingesetzt werden. Wobei wir immer in das obere Regal (Intel® Core™ i9-13900K) greifen, weil hier die sogenannte Silicon Lottery die höchste Qualität erwarten lässt. Und das Upsampling auf DSD eine sehr hohe Rechenleistung erfordert.
Einen großen technischen Sprung plant Intel mit Arrow Lake, weil als Herstellungsprozess Intel 20A – 3 nm geplant ist. Je geringer die Strukturgröße ausfällt, desto mehr Transistoren können je mm² verbaut werden. Die CPU soll Ende 2024 kommen.
Die Fertigungstechnik ist bei AMD mit 5-nm bei Ryzen™ 9 7950X3D deutlich moderner, als bei Intel mit dem sogenannten Intel-7, welches 10 nm Fertigungsprozess entspricht.
Die Energieeffizienz des AMD7800X3D hat in den gezeigten Tests begeistert. Nur fällt die Rechenleistung bei mathematisch orientierten Anwendungen stark ab. Hinzu kamen dann noch Probleme bei Überhitzungen der Ryzen-7000-Prozessoren, wenn das EXPO Profil für den Arbeitsspeicher geladen wurde. Ebenso wurden hohe Lastspitzen festgestellt.
Für unseren Anwendungsfall des DSD Upsamplings sehe ich Intel nach wie vor an der Spitze.
Intels Nachfolger Raptor-Lake-Refresh überzeugte aufgrund der geringen Leistungszunahme nicht. Im Netz ist von einigen Problemen mit der Motherboard Kompatibilität zu lesen. Da Arrow Lake Ende 2024 kommen soll, bleibt es bis dahin bei der bewährten 13. Prozessorgeneration.
Selbst Taiko Audio ist es passiert. Deren Extreme Network Card hatte teilweise einen schlechten Sitz, wodurch kein Verbindung zustande kam.
Mit unserer fis Audio PC Alu Rückblende, erstellt mit CNC Fräsmaschinen aus deutscher Fertigung, bieten wir eine sehr gute Lösung für den stabilen Halt von PCIe-Karten an.
Eine falsche Verlegung der Kabel kann zu erheblichen Klangeinbußen führen. Der Grund liegt in den elektromagnetischen Interferenzen (EMI – Electromagnetic Interference) und Hochfrequenzstörungen (RFI – Radio Frequency Interference).
Verlege die stromführenden Leiter wie AC-Kabel (Wechselstromkabel) oder DC-Kabel (Gleichstromkabel) nie im gleichen Kabelschacht oder parallel mit den signalführenden Leitern. Wenn eine räumliche Trennung nicht möglich ist, sollen sich die unterschiedlichen Kabeltypen im 90° Winkel kreuzen.
Achte auch auf die Stabilität der Anschlüsse. Wackelnde Stecker können hohe Übergangswiderstände produzieren und verursachen eventuell über einen Lichtbogen Kurzschlüsse.
Wichtig ist zu wissen, dass die digitale „0“ und „1“ in einer analogen Technik per Hochfrequenz (HF) übertragen werden. Dabei wertet ein Controller die unterschiedliche Spannungszustände aus.
Wo Strom fließt kann es auch Störungen geben. Zum Beispiel Gleichtaktstörungen und Leckströme. Diese Störungen können sich bis zum DAC übertragen. Hier können Isolatoren und die Unterbrechung der Kabelschirmung für Abhilfe sorgen.
LWL ist aufgrund der galvanischen Trennung eine lohnende Investition. Auch bei LWL gibt es Qualitätsunterschiede. Das fängt mit Transceivern an, die aufgrund ihres eigenen Rauschens sehr hochwertig sein sollen. Und setzt sich mit den Kabelqualitäten fort. Der Mehrpreis für Grade B ist im Gegensatz zu „audiophilen“ LAN-Kabel dermaßen gering, dass ich es jedem empfehle.
Für kurze Entfernungen kommen auch die preisgünstigen 10G-DAC- und AOC-Kabel in Frage. Das stromreduzierte passive DAC-Kabel hat zum Beispiel ein sehr geringes Eigenrauschen.
Über die Erdung (Schutzleiter PE) fließen Ausgleichströme, die das Nutzsignal verändern können. Daher soll die Potenzialdifferenz bei den Geräten klein gehalten werden. Achte bei den Netzleitern daher auf die richtige Phase.
Mit den PCIe-Karten bist du sehr flexibel und kannst die nicht audiophilen Computeranschlüsse umgehen. Den Ripple Noise vom Computer umgehst du entweder mit einer galvanischen Trennung per LWL (Lichtwellenleiter) oder mit einer externen Stromversorgung der PCIe-Karte durch ein lineares Netzteil. Ein Reclocking kann Jitter verringern.
Die heutigen digitalen Schnittstellen sind sehr vielfältig und haben ihre Stärken und Schwächen. In amerikanischen Foren hat sich die Erkenntnis mehrheitlich durchgesetzt, dass Schnittstellen mit hohen Bandbreiten wie 10G aufgrund besserer technischer Spezifikationen den Klang steigern. Auch wenn nur 1G genutzt wird. USB4 steckt für Audio noch in den Kinderschuhen
Kleinere Puffer in den USB- und LAN-Treibern reduzieren unter anderem das elektrische Rauschen. Diesen Punkt greift Taiko Audio mit seiner neuen Schnittstelle XDMI (vormals TACD) auf. Wird das Intervall viel kleiner gemacht, wird ein linearer Datenstrom mit einer sehr hohen Frequenz weit außerhalb des Audiobereichs erzeugt. Das bedeutet ein kontinuierliches Rauschen mit niedrigem Pegel bei sehr hohen Frequenzen.
Ausgehend von den Überlegungen von Taiko Audio oben, kannst mit den Puffereinstellungen bei USB und LAN ähnliches erreichen.
Die Puffergröße hat Auswirkungen auf die Latenzen. Ich empfehle (wie üblich ohne Gewähr) geringstmögliche Pufferwerte zu setzen, welche die Latenzen minimieren. Niedrigste Latenzen verringern:
Wenn du Löten kannst und Geld sparen möchtest ist das DIY-Projekt Buffalo BS-GS2016 als Klon des Melco S100 vielleicht genau das richtige für dich. Wir bieten den Umbau zwar nicht an, liefern aber gern das DC-Kabel und das lineare Netzteil dazu.
Wenn du wirklich das Beste willst, trenne deine digitale Strecke in einen Control PC (z. B. Roon) und in einen Audio PC (z. B. HQPlayer) auf. Der Control PC muss nicht besonders leistungsstark sein. Es kann sich auch um ein NAS handeln. Der Audio PC soll in jederlei Hinsicht audiophil und mit geringsten Latenzen sehr leistungsstark sein. Wie zum Beispiel der fis Audio PC.
Interrupts sind Unterbrechungen im Computersystem, damit zeitnah auf Ereignisse reagiert werden kann. Auch wenn es nicht zu offensichtlichen Drop Outs kommt, können im Millisekundenbereich störende Artefakte entstehen, allen Puffern zum Trotz. Die meisten Menschen können bereits Latenzen zwischen 2-5 ms erkennen.
Deshalb ist ein duales PC-System wie oben beschrieben auch so sinnvoll. Die Musikverwaltung und Steuerung löst starke Aktivitäten aus, die zu Interrupts führen und die Musikwiedergabe stören.
In Windows 11 Pro laufen oft 160 Prozesse, zum Beispiel für Audio unwichtige Drucker-, Kalender- und Mailfunktionen. Oder die voreingestellte Energieoption „Ausbalanciert (empfohlen)“ führt bei der Musikwiedergabe wegen hoher Latenzen zu Drop Outs.
Nicht jeder möchte auf Windows verzichten. Viele haben mit dem Betriebssystem langjährige Erfahrungen und manche Programme gibt es nur für Windows. Zum Beispiel Acourate für die Raumkorrektur.
Die Optimierung von Windows ist jedoch mit Arbeit verbunden. Die Mühe lohnt sich. Die meisten Einstellungen musst du nur einmal tätigen.
Die Idee des HQPlayers ist die begrenzte Rechenleistung eines DACs durch einen Audio PC zu ersetzen. Der Audio PC kann hochwertigere Modulatoren und Filter verarbeiten. Der fis Audio PC bietet dafür die notwendige Rechenleistung und ist trotzdem lautlos. Der DAC soll dabei im NOS (Non Oversampling) mit geringer Rechenlast in seinem Sweet Spot betrieben werden.
Mit effizienteren Algorithmen und verbesserten Filtern und Modulatoren in der 5. HQPlayer Generation konnte die Soundqualität (SQ) erheblich gesteigert werden. Mit der Spektralanalyse in Echtzeit deckst du Mogelpackungen auf.
Ausblick
Für das neue Jahr habe mich mir schon einige Themen vorgenommen:
Jeder möchte natürlich das beste Gerät zum niedrigsten Preis. Und in der Tat kann man preiswerte DACs mit besten technischen Daten kaufen. Am besten verlässt du dich nicht auf die Herstellerangaben, sondern suchst im Internet nach neutralenMesswerten.
Selbst wenn du etwas von Messkoryphäen findest, kannst du dich nicht blind darauf verlassen. Denn das führt zum nächsten Problem: Wird das Richtige gemessen? In diesem Artikel geht es exemplarisch um einen DAC, der die besten Messwerte hatte und trotzdem gravierende Probleme aufwies.
Messungen
Audio Science Review
Im Audio Science Review (ASR) Forum werden regelmäßig Messwerte von Audio Hardware veröffentlicht. Etwas Humor ist immer dabei. Wenn zum Beispiel der kopflose Panther abgebildet ist, weißt du schon wie der Test ausgegangen ist. Jeder kann die Ergebnisse und Beiträge lesen, das Forum ist kostenlos. Jeder kann sein Audio-Equipment kostenlos vermessen zu lassen!
Die Koryphäe
Der sogenannte CFO (Chief Fun Officer) heißt Amir Majidimehr und ist wohl in der Seattle Area im Bundesstaat Washington beheimatet. Er hat einen beeindruckenden Lebenslauf:
Unix-„Kernel“-Entwickler (Betriebssystem)
Entwicklung von Motherboards, Audio-Subsysteme, Netzteile, LCD-Displays bei Sony
Leitung des Entwicklerteams bei Abekas Video Systems und Pinnacle
Als Beispiel nehme ich den SMSL DO100 DAC. Die Firma Foshan ShuangMuSanLin Technology Co., Ltd. (SMSL) wurde 2009 gegründet und hat ihren Sitz in Shenzhen, China. Im DAC sind gleich zwei ESS Technology ES9038Q2M D/A Chips verbaut. Für USB wurde die XMOS-Lösung der 2. Generation verwendet. Der DAC kann natives DSD512 und PCM 768 kHz / 32 Bit verarbeiten.
SINAD steht für „Signal-to-Noise and Distortion Ratio“ und ist eine wichtige Metrik zur Bewertung der Audioqualität. Diese Kennzahl misst das Verhältnis zwischen dem Nutzsignal, also dem gewünschten Signal, und unerwünschten Signalanteilen wie Rauschen und Verzerrungen.
Mit 120 dB ist der SINAD hervorragend.
Mehrtontest
Der Mehrtontest mit einer Sampling Rate von 192 kHz klopft 32 verschiedenen Frequenzbereiche auf Verzerrungen ab, die in diesem Fall sehr gering sind.
Anti-Aliasing-Filter
Bei einem DAC sollen natürlich auch die Spiegelfrequenzen wirksam bedämpft werden. Grundlage ist das Nyquist-Shannon-Abtasttheorem. Dabei wird das Originalsignal mit einer Rate abgetastet, die mehr als doppelt so hoch wie die höchste im Signal vorkommende Frequenz ist. Wird das Abtasttheorem durch eine zu niedrige Abtastrate verletzt, so werden Frequenzanteile, die ursprünglich höher waren als die halbe Abtastrate (Nyquist-Frequenz), als niedrigere Frequenzen interpretiert, da für diese eine Unterabtastung stattfindet. Dieses unerwünschte Phänomen wird Alias-Effekt genannt.
Der Nutzer kann zwischen 7 Filter wählen, die unterschiedlich abrollen und maximal bis -100 dB dämpfen. Die Filter sind beim HQPlayer wesentlich besser, z. B. rollen sie steiler ab und dämpfen bis -200 dB. Das eingeschränkte Filterdesign ist jedoch bei den meisten DAC-Chips so.
Gesamtbewertung
Die weiteren Messwerte um die Linearität, Jitter, etc. fallen auch sehr gut aus, so dass Amir diesen DAC empfiehlt:
Dies ist eine einwandfreie Leistung von SMSL. Jeder Test wird mit Bravour bestanden und lässt keinen Raum für jegliche Beanstandung. Wenn man bedenkt, dass diese State-of-the-Art-Leistung zu relativ geringen Kosten angeboten wird, ist das eine ziemliche Leistung. Es gibt keine Ausrede mehr, sich nicht für volle Transparenz zu entscheiden, Leute.
Es ist mir eine Freude, das SMSL DO100 zu empfehlen.
Die norwegische Firma Signalyst bietet verschiedene HQPlayer Versionen und sogar eine eigene DAC Platine an. Signalyst selbst betreibt kein Forum, sondern nutzt für Ankündigungen und den Support sehr intensiv Foren. Hier ist eine Auswahl:
In diesem Test des SMSL DO100 hat ein Forent PCM 44,1 kHz (rot) mit DSD256x48 (blau) verglichen. Erwartungsgemäß liegt das Grundrauschen von DSD mit rund -145 dB deutlich unter PCM 44,1 kHz, allerdings kommt es bereits ab 40 kHz zu einem massiven Anstieg des Rauschens.
Lt. Jussi Laako ist dieses Verhalten bei vielen ESS-Chips typisch, wenn der ASRC (Asynchronous Sample Rate Conversion) aktiv ist. Die ASRC ist ein Prozess, der dazu dient, verschiedene digitale Audiosignale mit unterschiedlichen Abtastraten miteinander zu synchronisieren.
Der Chip sollte stattdessen ASRC deaktivieren und IIRC (Intelligent Inference of the Reconstruction Clock) nutzen. Die IIRC-Technologie ist eine Art von Algorithmen und Schaltungen, die zur Reduzierung von Jitter (zeitlichen Verzerrungen) bei der Rekonstruktion des analogen Signals aus dem digitalen Datenstrom verwendet werden. Damit würde der Chip im sogenannten „128fs-Takt“-Modus mit synchronen Takten laufen. Stattdessen läuft im DAC z.B. ein fester 100-MHz-Takt.
Dasselbe Problem führt auch dazu, dass der Chip bei bestimmten Eingangsdaten (PCM-Eingängen) zu einer enormen Rauschspitze um 1 MHz im Ausgang neigt.
1 kHz Testton Frequenzvergleich
Beim Testen des SMSL DO100 mit DSD 256×48 ist ein weiteres Problem aufgetreten. Alles sieht großartig aus, außer dass die tatsächliche Frequenz des Testtons am Ausgang bei Verwendung von 48k-basierten Raten nicht 1 kHz beträgt. Stattdessen sind es bei 1 kHz * 44,1 / 48 = 0,918 kHz:
Es ist lt. Jussi Laako eine typischer Implementierungsfehler der XMOS USB Audio Class Engine mit dem Referenzcode. Dieser schaltet die Takte nicht um und bleibt stattdessen immer bei der 44,1-Familienclock mit DSD-Eingängen. Der DAC spielt damit etwas langsamer und das ist bei bekannten Stücken natürlich hörbar.
Interpretation
Wie kommt es zu den unterschiedlichen Messergebnissen?
Amir Majidimehr spult bei den Messungen immer das gleiche Programm ab. Es wird stur PCM für den Test genommen und er kommt so beim SMSL DO100 zu hervorragenden Testergebnissen.
Der HQPlayer wurde extra für das PCM zu DSD Upsampling entwickelt, weil das die Delta-Sigma-DACs sowieso machen, nur mit eingeschränkter Qualität. Siehe mein Bericht: Wie arbeitet ein DAC und was kann Upsampling bewirken? Der HQPlayer von Jussi Laako ermöglicht ein geradzahliges Upsampling. Bei einer Quellrate von 44.1 kHz wird beispielsweise geradzahlig auf DSD256 (44.1 x 256 = 11,2896 MHz) hochgerechnet. Bei einer Quellrate von 48 kHz entsprechend geradzahlig auf DSD256x48 (48 x 256 = 12,288 MHz).
Bei DSD256x48 sind beim SMSL DO100 folgende Probleme entstanden:
Der fehlerhafte DAC-Chip führt zu einem erhöhten Rauschen.
Die fehlerhafte XMOS-USB-Implementierung führt zu einer Drift und verlangsamt den DAC.
Fehlervermeidung
Zur Fehlervermeidung ermöglicht der HQPlayer eine Deaktivierung von 48 kHz-Inhalten, so dass dann bei 48 kHz Quellraten immer ungeradzahlig auf DSD hochgerechnet wird.
Foren wie Audio Science Review (ASR) müssen sich natürlich auf einen gewissen Standard des Messverfahrens einigen, damit die Messergebnisse dauerhaft vergleichbar sind. Auf der anderen Seite sind Quellraten von 48 kHz und DSD nicht selten, so dass eine Erweiterung des Testverfahrens zu empfehlen ist.
Dieses Beispiel zeigt sehr schön die Grenzen der Messungen auf. Erst durch die Verwendung anderer Testinhalte konnten die Fehler aufgedeckt werden. Ein erhöhtes Rauschen und die Drift bei 48 kHz Inhalten sind völlig unakzeptabel. Deshalb ist es bei deiner Recherche immer wichtig, unterschiedliche Informationsquellen anzuzapfen. Dies gilt natürlich für alle Geräte.
Letztendlich soll aber immer dein Ohr entscheiden. Denn für mich ist völlig klar, dass nicht alles gemessen wird und (noch) nicht alles gemessen werden kann, was wir hören und wie es unser Gehirn umsetzt.
In diesem Beitrag geht es um Modulatoren. Du denkst jetzt vielleicht: „Was ist das? Interessiert mich aber auch nicht, weil ich nur bitperfekt im NOS (Non Oversampling) höre“. Ist das mit deinem DAC überhaupt möglich, oder wandelt er vielleicht mehr als du denkst?
Wenn du die Architektur des DACs kennst, kannst du gezielter Verbesserungen vornehmen. Deshalb schauen wir uns einen Delta-Sigma-Chip in der Praxis an. Außerdem hat der HQPlayer einen sensationellen neuen Modulator eingeführt, den ich dir vorstellen möchte.
Grundlagen
Audioformate
Um die Funktion des Modulators richtig einordnen zu können, betrachten wir zunächst die beiden wichtigsten verlustfreien Audioformate PCM und DSD.
Das analoge Audiosignal wird periodisch abgetastet, indem es in diskrete Zeitabschnitte unterteilt wird. Diese Abtastwerte werden dann in binärer Form (0/1) kodiert. Dieser Vorgang ordnet dem analogen Wert einen digitalen Wert zu, der dem Amplitudenpegel (Lautstärke) des analogen Signals entspricht.
Die Audio-Abtastrate von 44,1 kHz wurde 1979 von Sony eingeführt und ist aufgrund des CD-Formats (Compact Disc) weit verbreitet. Die Bittiefe der CD beträgt 16 Bit, was einen Dynamikumfang von 96 dB (16 Bit x 6 dB) ermöglicht.
DSD (Direct Stream Digital)
Bei der Delta-Sigma-Modulation (DSD) zeigt jedes 1-Bit-Sample eine positive [1] oder negative [0] Änderung des Amplitudenpegel (Lautstärke) relativ zu seinem vorherigen Wert. Es arbeitet mit einer extrem hohen Abtastrate im Megahertz-Bereich.
Das DSD-Verfahren wurde ursprünglich bei der Super Audio CD (SACD) eingesetzt. Gespeichert wird der direkte Datenstrom eines Delta-Sigma-Modulators, der mit 2,8224 MHz arbeitet. Dies entspricht dem 64-fachen (DSD64) der Abtastrate von 44,1 kHz (Audio-CD/Red Book). Die Bittiefe beträgt 1 Bit, so dass DSD in seiner ursprünglichen Form nicht nachbearbeitet werden kann.
DAC Architektur
Wir konzentrieren uns auf die weit verbreiteten Delta-Sigma-Chips. Es gibt aber auch andere Architekturen, z.B. Ladder (R2R) DACs, die sicherlich einen eigenen Newsletter wert sind.
Delta-Sigma-Chips
Die Delta-Sigma-Modulation ist seit den 1970er Jahren mit den Fortschritten in der CMOS-Technologie kostengünstig realisierbar. Delta-Sigma-Chips werden von vielen großen Halbleiterherstellern als fertige integrierte Schaltungen angeboten. Sehen wir uns das Bild unten näher an:
Oversampling
In einem meist zweistufigen Verfahren wird im DAC ein Oversampling mit und ohne digitale Filter in den gewünschten MHz-Bereich durchgeführt. Dies ist z.B. 5,6448 MHz (44,1kHz x 128 = 5644800 kHz), was DSD128 entspricht. Dieses Oversampling ist zwingend notwendig, da der Delta-Sigma-Modulator nur im Megahertz-Bereich arbeiten kann.
Delta-Sigma-Modulator
In den gängigen Medien wirst du oft einen Modulator für ADC (Analog Digital Converter) finden, zum Beispiel hier: Delta-Sigma-Modulation – Wikipedia. Da wir nicht im Tonstudio sind, sondern Musik hören wollen, interessert uns der umgekehrte Weg.
Die digitalen Samples mit 0 und 1 gehen in den Eingangsdifferenzkonverter, welcher im hexadezimalem Wertbereich arbeitet. Dementsprechend kennt der digitale Modulator nur zwei Werte DRef- und DRef+.
Ein entstehender Messfehler wird integriert (Integrator) und über eine Gegenkopplung (negativ feedback) schrittweise kompensiert. Die Anzahl der Integratoren bzw. die Anzahl der Gegenkopplungsschleifen charakterisieren die Ordnung des ΔΣ-Modulators. Je höher die Ordnung ist, umso stärker wird die Verschiebung des Rauschens, umso höhere Frequenzen können genutzt werden.
Der Komparator vergleicht, ob sein Eingangssignal größer oder kleiner als ein bestimmter Schwellenwert ist und gibt ein entsprechendes Ein-Bit Signal, den Bitstream aus. Dieser Bitstream wird an einen DDC (Digital-Digital-Converter) solange in eine Gegenkopplungsschleife (negative feedback) abgezweigt, bis die gewünschte Signalqualität erreicht ist. Dieser Zyklus wiederholt sich pro Abtastzyklus.
Digital-Analog-Wandlung
Der fertige Bitstream geht nun an den eigentlichen DAC (Digital-Analog-Converter). Dieser hat die Aufgabe den digitalen Datenstrom in ein analoges Signal zu wandeln. Dabei muss zwingend ein analoger Tiefpassfilter eingesetzt werden.
PCM wird zuerst in ein Modul DATT (Dynamic Audio Transport Technology) geschoben. Soft Mute dürfte das Absenken der Lautstärke betreffen, vielleicht beim umschalten von Quellraten oder des Audio Formats. Wichtiger ist der Weg zum Modul Interpolator (De-Emphasis ist veraltet und wird nicht mehr benötigt). Der Interpolator rechnet die Quellrate auf die passende Frequenz im Megahertz-Bereich für den Delta-Sigma-Modulator hoch.
Der ΔΣ-Modulator nimmt die Daten in Empfang und erzeugt den in den Grundlagen erläuterten Bitstream, welcher dann über einen analogen Filter (SCF – Switched-Capacitor-Filter) von Digital zu Analog gewandelt wird.
Das bedeutet, dass bei DACs mit diesem oder anderen Delta-Sigma-Chips die Quelldateien im PCM Format zwangsläufig auf DSD umgerechnet werden!
Quellformat DSD
Erhält der AKM Chip Files mit DSD ist eine Umgehung möglich. Wenn bestimmte Bedingungen erfüllt sind, wird der Bitstream direkt dem analogen Filter zugeführt. Ob das in der Praxis funktioniert, ist vom DAC Hersteller abhängig. Manche DACs ermöglichen einen NOS (Non Oversampling) Betrieb, so dass die interne Verarbeitung vollständig umgangen werden kann. Der DAC erledigt dann nur noch seine eigentliche Aufgabe: die Digital-Analog-Wandlung.
Das On-Board-Upsampling erhöht den Jitter im DAC. Weil die Verarbeitung in der Nähe der D/A-Wandlungsstufe EMI/RFI erzeugt. Dadurch wird die eigentliche D/A-Wandlung gestört und Jitter verursacht. Wenn es durch einen externen Modulator stattdessen nur eine minimale On-Board-Verarbeitung gibt, werden EMI/RFI und Jitterreduziert.
Im DAC Chip können mangels Rechenleistung nur recht einfache Filter und Modulatoren umgesetzt werden. Auch wenn Hersteller wie AKM von VELVETSOUND™ technology oder ESS von HyperStream Modulatoren sprechen, handelt es sich vieleicht nur um Modulatoren 3. Ordnung. Das Ziel ist die Umgehung der limitierten internen DAC Verarbeitung.
Der HQPlayer bietet zum Beispiel zahlreiche Modulatoren 7. Ordnung an. Da liegen Welten dazwischen. Dementsprechend hoch ist die Anforderung an die Rechenleistung. Als Faustformel müssen für die anspruchvollsten HQPlayer Modulatoren pro Kanal ein Kern auf mind. 4 GHz getaktet werden. Für Stereo also zwei Kerne.
Für den fis Audio PC ist das kein Problem, da der Intel® Core™ i9-13900K 8 P-Cores hat, die virtuell auf 16 Cores verteilt (Hyper-Threading) eine parallele Verarbeitung ermöglichen.
Neuer HQPlayer Modulator AHM7EC5L
Der neue Modulator AHM7EC5L ermöglicht bei geringerer Rechenleistung eine höhere Abtastrate. Die Bezeichnung ist ein Akronym für Adaptime Hybrid-Modulator, 7. Ordnung, Erweiterte Kompensation, 5-stufig. Dieser Modulator kann nur für DSD1024 und höher eingesetzt werden. Obwohl es sich um einen experimentellen Modulator handelt, ist der Klang bei mir und auch bei anderen überragend!
Meine Wertschätzung für AHM7EC5L @1024 mit dem Holo May DAC. Meiner Meinung nach schlägt es Super @256 oder Light @512 mit Fokus auf saubere, tiefe Basserweiterung und Abbildung
Die Einstellungen können im HQPlayer Client „on the fly“ geändert werden.
Reduzierte Anforderung an die Rechenleistung
Ab der HQPlayer Version 5.0.0 ist positiv festzuhalten, dass die Modulatoren besser wurden und gleichzeitig die Rechenleistung zum Teil reduziert werden konnte. Der Modulator AHM7EC5L fällt in diese Kategorie.
In einem recht anspruchsvollen Szenario wird vom HQPlayer eine 44,1 kHz Datei mit dem Filter:
sinc-MGa
Apodisierender Gaußscher Konstantzeitfilter mit einer Million Taps bei 16- facher PCM-Ausgangsrate. Mit extrem hoher Dämpfung (65536 Umrechnungsverhältnis). Ähnlich zu poly-sinc-gauss-xla.
auf DSD1024 hochgerechnet.
Im Bild unten ist rechts die Auslastung mit 16 P-Cores (1-16) und den 2 E-Cores (17-18) zu sehen. Die P-Cores laufen auf max. 4,4 GHz, um eine energieeffiziente Verarbeitung zu erreichen. Möglich währen sogar 5,8 GHz, die hier aber nicht benötigt werden. Es ist immer gut eine CPU weit unter ihren Spezifikationen zu betreiben. Die zwei E-Cores werden nur für geringe Hintergrundaktivitäten eingesetzt. Die restlichen E-Cores (14 von 16) wurden im BIOS zur Energieeinsparung und Latenzminimierung deaktiviert. Die Auslastung der Kerne mit den Modulatoren ist mit je 40% (Kerne 1 und 9) moderat, die Gesamtbelastung ist mit 14% auch nicht hoch.
Zusammenfassung
Auch wenn das Audioformat PCM (Pulse Code Modulation) ist, wird es von den meisten DAC Chips zu DSD (Direct Stream Digital) gewandelt. Wenn du ein überzeugter NOS Hörer bist, schau dir die Architektur deines DACs an. Wenn ein Delta-Sigma-Chip verbaut ist, hörst du bei PCM kein NOS!
Bei einem Delta-Sigma-Chip wie z.B. AKM AK4493 ist es besser, DSD als Quellformat zu verwenden, da der Chip PCM zwangsläufig in DSD umwandelt. Mit DSD als Quelle werden die vergleichsweise einfachen Interpolatoren und Modulatoren des DAC-Chipsumgangen.
Die Reduzierung der Verarbeitung im DAC Chip minimiert außerdem EMI/RFI und es wird dadurch weniger Jitter erzeugt.
Dabei musst du keine DSD Files kaufen oder streamen. Die meisten Audiofiles liegen sowieso in PCM vor, weil sich diese noch im Tonstudio digital nachbearbeiten lassen. Aber auch bei dir zum Beispiel mit Raumkorrekturfiltern und digitalerLautstärkeregelung. Nutze einfach einen leistungsfähigen Audio PC und qualitativ hochwertige Filter und Modulatoren wie im HQPlayer. In Echtzeit wird PCM zu DSD gewandelt. Der DAC sieht dann das ursprüngliche Quellmaterial PCM gar nicht mehr, sondern nur noch DSD.
Der neue HQPlayer Modulator AHM7EC5L ist für mich im Moment der beste Modulator für DSD1024. Und das gleichzeitig mit reduzierterRechenleistung. Aber auch andere Modulatoren bei geringerer Abtastrate sind in der Regel besser als im DAC. Mache dich vom DAC Design unabhängig. Nutze einen NOS fähigen DAC und freue dich über die Vielfalt der Möglichkeiten zur digitalen Musikaufbereitung. Je nach Stimmung und Musikgenre kannst du unterschiedliche Filter nutzen. Und bei Updates bist du immer mit dabei. Dafür haben wir den fis Audio PC konstruiert.
Weitere Fundstellen
Zum Vertiefen des Themas findest du einiges in unseren Audio PC Grundlagen:
Was ist Audio PC Upsampling und welche Möglichkeiten zu Steigerung der Sound Quality (SQ) gibt es?
In diesem Beitrag geht es um den nichtflüchtigen Speicher (Festpeicher) für das Betriebssystem und die Musikfiles. Welche Speicher eignen sich am besten für welche Zwecke?
Bevor wir diese Frage erörten folgen als erstes Grundlagen zu den Speichertechniken.
Grundlagen*
Welche Speichermedien gibt es?
Eine kleine Historie: Vor der SSD-Festplatte (Solid State Disc) gab es HDD-Festplatten (Hard Disk Drive), die mit einem mechanischen Arm und Magnetplatten funktionieren. SSD-Technik läuft ohne diese Bauteile, daher sind die Formen deutlich kompakter, schneller und vor allem lautlos.
HDD-Festplatten (Hard Disk Drive)
Eine HDD ist eine magnetische Datenspeichertechnologie, die zur langfristigen Speicherung großer Datenmengen in Computern und anderen elektronischen Geräten verwendet wird. Sie besteht aus mehreren rotierenden magnetischen Scheiben, die mit einer dünnen Schicht aus magnetischem Material beschichtet sind. Ein beweglicher Arm mit einem Lesekopf liest und schreibt Daten auf diese Scheiben.
Im Vergleich zu Solid-State-Laufwerken (SSDs) haben HDDs typischerweise höhere Latenzzeiten und niedrigere Bandbreiten. Dennoch bleiben HDDs aufgrund ihrer vergleichsweise niedrigeren Kosten pro Speicherkapazität weiterhin weit verbreitet, insbesondere für die Speicherung großer Datenmengen, bei denen schnelle Zugriffszeiten nicht unbedingt erforderlich sind.
SSD-Festplatte (Solid State Disc)
SSD verwendet Flash-Speicherchips anstelle von mechanischen Komponenten, um Daten zu speichern. Eine SSD besteht aus Flash-Speicherbausteinen, die ohne bewegliche Teile funktionieren.
Im Vergleich zu HDDs haben SSDs extrem niedrige Latenzzeiten. Dies liegt daran, dass SSDs auf nicht-mechanischen Speicherzellen basieren, was bedeutet, dass keine beweglichen Teile vorhanden sind, die sich bewegen müssen, um auf die Daten zuzugreifen.
USB-Flash-Laufwerke
USB-Flash-Laufwerke, auch als USB-Sticks oder USB-Flash-Laufwerke bezeichnet, sind kleine, tragbare Speichergeräte, die Flash-Speichertechnologie verwenden und über eine USB-Schnittstelle an Computer und andere Geräte angeschlossen werden können. Sie sind für ihre Benutzerfreundlichkeit, Mobilität und Vielseitigkeit bekannt.
Die Bandbreite und Latenzen von USB-Flash-Laufwerken können je nach verschiedenen Faktoren variieren, einschließlich der verwendeten USB-Spezifikation (z. B. USB 2.0, USB 3.0, USB 3.1, USB 3.2 Gen 1, Gen 2 usw.) und der Qualität des Flash-Speichers im Stick.
SD-Karten (Secure Digital Cards) und microSD-Karten
SD-Karten (Secure Digital Cards) und microSD-Karten sind kleine, tragbare Speicherkarten, die in einer Vielzahl von Geräten wie Kameras, Smartphones, Tablets, tragbaren Spielkonsolen und anderen elektronischen Geräten verwendet werden. Sie bieten nichtflüchtigen Speicherplatz und verwenden Flash-Speichertechnologie für die Datenspeicherung.
Die Bandbreite und Latenz einer SD-Karte oder microSD-Karte hängt von der Qualität des verwendeten Flash-Speichers, der Schreib- und Lesevorgänge sowie der Kompatibilität mit dem Gerät, in dem sie verwendet wird, ab.
Welche Schnittstellenprotokolle gibt es?
SATA (Serial Advanced Technology Attachment)
SATA ist eine häufig verwendete Schnittstelle für den Anschluss von Festplattenlaufwerken (HDDs) und Solid-State-Drives (SSDs) an Computer. Es gibt verschiedene Iterationen wie SATA I, SATA II, SATA III, wobei SATA III die aktuellste und schnellste Version ist.
SATA verwendet oft kabelgebundene Daten- und Stromanschlüsse, die in verschiedenen Größen für unterschiedliche Geräte verfügbar sind.
eSATA ist eine externe Schnittstelle, die ähnlich wie SATA funktioniert, jedoch für den Anschluss externer Festplatten verwendet wird. Es bietet höhere Geschwindigkeiten im Vergleich zu USB 2.0, obwohl nicht so schnell wie USB 3.0 oder Thunderbolt.
SATA war lange Zeit die vorherrschende Schnittstelle für den Anschluss von Massenspeichergeräten in Computern aufgrund seiner einfachen Handhabung, seiner Zuverlässigkeit und seiner Verfügbarkeit. Allerdings hat NVMe (Non-Volatile Memory Express) aufgrund seiner höheren Übertragungsgeschwindigkeiten und niedrigeren Latenzzeiten in den letzten Jahren in Bereichen mit anspruchsvollen Anwendungen und High-End-Computern an Bedeutung gewonnen.
NVMe (Non-Volatile Memory Express)
NVMe ist ein leistungsstarkes, effizientes und hochmodernes Schnittstellenprotokoll, das speziell für die Kommunikation zwischen dem Hostsystem (normalerweise dem Prozessor) und schnellen, nichtflüchtigen Speichergeräten wie Solid-State-Drives (SSDs) entwickelt wurde.
NVMe wurde entwickelt, um die Leistungsfähigkeit von schnellen SSDs voll auszuschöpfen. Es nutzt das PCIe (PCI Express) Businterface, was eine erhebliche Steigerung der Datenübertragungsraten im Vergleich zu älteren Protokollen wie SATA ermöglicht. NVMe bietet im Vergleich zu älteren Standards wie SATA deutlich niedrigere Latenzzeiten. Diese geringe Latenzzeit ermöglicht schnellere Datenzugriffe und schnellere Reaktionszeiten, was insbesondere in rechenintensiven Anwendungen und Workloads von Vorteil ist.
NVMe wurde entwickelt, um die Besonderheiten und Vorteile von Flash-Speicher effizienter zu nutzen. NVMe-basierte SSDs sind oft in Formfaktoren wie M.2-Karten oder als PCIe-Erweiterungskarten verfügbar. Diese SSDs werden direkt an den PCIe-Steckplatz des Motherboards angeschlossen, was Platz spart und die Installation erleichtert.
Welche Speicher-Formfaktoren gibt es?
Neben den USB-Sticks und Speicherkarten, die jeder kennt, gehe ich hier nur auf die Besonderheiten im Audio PC ein.
PCI Express (PCIe)
PCIe ist eine leistungsstarke Schnittstellentechnologie, die in modernen Computern für die Anbindung von Hochleistungs-Solid-State-Drives (SSDs) wie NVMe (Non-Volatile Memory Express) verwendet wird. NVMe nutzt PCIe und bietet sehr hohe Übertragungsraten im Vergleich zu SATA-basierten Laufwerken.
PCIe-Anschlüsse kommen in verschiedenen physischen Formfaktoren, einschließlich x1, x4, x8, x16 und x32, wobei die Zahlen die Anzahl der verfügbaren Lanes angeben. Die x1-Steckplätze sind für kleinere Erweiterungskarten wie Soundkarten oder Netzwerkkarten geeignet, während x16-Steckplätze oft für leistungsfähigere Komponenten wie Grafikkarten verwendet werden. Die im fis Audio PC favorisierte Hochleistungsnetzwerkkarte Solarflare X2522 benötigt einen X8 Steckplatz und hebt sich mit geringsten Latenzen und Jitter von den gängigen Netzwerkkarten ab.
M.2
M.2 ist ein Formfaktor, der mit PCIe oder SATA Schnittstellen verbunden sein kann und in vielen modernen Laptops und Motherboards für den Anschluss von SSDs verwendet wird. Dies ermöglicht eine kompakte Bauweise und schnelle Datenübertragungsraten.
Üblich ist ein Formfaktor (also die Größe der SSD-Karte) von 2280, dass bedeutet eine Breite von 22 mm und einer Länge von 80 mm. Alle M.2-SSDs passen in M.2-Sockel auf Systemplatinen. Der M.2-Formfaktor führt zu mehr Leistung bei kleinerem Platzbedarf und ist die Zukunft für den technischen Fortschritt bei SSDs. Zudem sind weder Strom- noch Datenkabel erforderlich und somit auch keine Kabelführung!
Welche Speicherzellentypen gibt es?
NAND
NAND ist eine Abkürzung für „NOT AND“ und bezieht sich auf eine logische Schaltung in der Digitaltechnik. NAND ist eine der grundlegenden logischen Gatterarten in der elektronischen Schaltungstechnik.
Ein NAND-Gatter ist ein digitaler Schaltkreis, der aus mehreren Transistoren besteht und eine logische Operation ausführt, die das Gegenteil der „AND“-Operation darstellt. Es hat zwei oder mehr Eingänge und gibt einen Ausgang basierend auf der Negation der „AND“-Operation zurück. Das bedeutet, dass das NAND-Gatter „WAHR“ (logisch 1) ausgibt, es sei denn, alle Eingänge sind „WAHR“, in diesem Fall gibt es „FALSCH“ (logisch 0) zurück.
In der Speichertechnologie bezieht sich NAND speziell auf eine Art von Flash-Speicher, der in vielen nichtflüchtigen Speichergeräten wie Solid-State-Drives (SSDs), USB-Flash-Laufwerken, Speicherkarten und anderen Speichergeräten verwendet wird.
Speicherzellen 1 Bit (SLC), 2 Bit (MLC), 3 Bit (TLC) oder 4 Bit (QLC)
Speicherzellen können mit 1 Bit (SLC), 2 Bit (MLC), 3 Bit (TLC) oder gar 4 Bit (QLC) Bit beschrieben werden. Mehr Bit an Informationen haben den Vorteil, das weniger Speicherchips für dieselbe Speicherkapazität benötigt werden. Das senkt die Kosten und macht mittlerweile Endkunden-SSDs im Standardformat mit bis zu 8 TB Kapazität möglich.
Mehr Bits haben aber auch gravierende Nachteile: die Schreibleistung und die Haltbarkeit sinken. Hinzu kommen Berichte, wonach sich Mehrbit-Speicherzellen schlechter anhören.
Im Bild unten sind die Vorteile von 1 Bit (SLC) klar zu erkennen:
Geringerer Stromverbrauch und dadurch rauschärmer
Geringste Latenzen = größere Verarbeitungsgeschwindigkeit Verdoppelt sich für jeden Bit pro Zelle, so wie es auch bei der Energie geschieht.
Weniger Fehler Die Fehler nehmen für jeden Bit pro Zelle zu und damit die Menge an Error Correction Code im SSD-Controller.
Der Nachteil liegt in den zum Teil exorbitant hohen Preisen.
3D XPoint Speicher (Intel Optane)
3D XPoint ist eine von Intel und Micron Technology entwickelte, im Juli 2015 vorgestellte und im Juli 2022 abgekündigte Bauart nichtflüchtiger Datenspeicher. Im Vergleich zu NAND-Flash-Speicher hat 3D XPoint eine geringere Speicherlatenz und lässt sich häufiger überschreiben. Die Optane SSD verwendet die NAND-Technologie nicht, aber in Bezug auf die Bits pro Zelle ist sie ähnlich wie die SLC SSD.
Die Technologie basiert auf der Veränderung des elektrischen Widerstands und hat eine räumliche Gitterstruktur. Die Speicherchips kommen ohne Feldeffekttransistoren aus, was eine höhere Integrationsdichte ermöglicht.
Intel hat zur großen Verwirrung beigetragen, da es unterschiedliche Optane-Speicher für unterschiedliche Zwecke gibt. Optane kann durch ein kleines Cache-Laufwerk dargestellt werden, das in Verbindung mit einem langsameren Speichergerät wie einer herkömmlichen SATA-Festplatte gebraucht wird. Solcher Cache kann in ein Hybrid-Speicher-Modul integriert werden und dort ein größeres NAND-basiertes Solid-State-Laufwerk ergänzen. Diese Lösung erforderte einen tiefen Eingriff in den Maschinenraum (BIOS) des Computers und zusätzlich eine aufwändige Treiberkonfiguration.
Zudem kann Optane als schnelles eigenständiges Laufwerk zum dauerhaften Speichern verwendet werden. Diese Lösung funktionert wie jede andere SSD auch. Einfach im Motherboard anschließen und die SSD wird automatisch erkannt. Sehr geeignet für Betriebssysteme. Wir bieten für den fis Audio PC folgende Intel Optane SSDs im Format M.2/80 mm an:
Und schließlich gibt es speicherorientierte Optane-Produkte, die neben DRAM-Modulen eingesetzt werden. Diese Lösung wurde meines Wissens am wenigsten genutzt, da Arbeitsspeicher immer preiswerter wird.
Speicherlatenzen
Warum Latenzen in Audio PCs so wichtig sind habe ich hier beschrieben: Audio PC Latenzen. Geringste Latenzen bedeuten automatisch weniger Jitter!
Bei den Latenzen zeigen sich deutliche Unterschiede. Während sich im Bild unten die CPU mit ihren L1-L3 Cache und der Arbeitsspeicher an der Spitze (links) befinden, liegt ein Intel Optane (PCIe) Speicher mit 10 µs deutlich vor einer NAND (SATA) SSD mit bis zu 1 000 µs (1 ms).
Speicher im Audio PC
Auswahlkriterien
Im fis Audio PC lege ich großen Wert auf den richtigen Einsatz der unterschiedlichen Speichermedien. Denn das Betriebssystem hat andere Anforderungen an den Speicher, als die Mediadaten.
Speichergröße
Beim Betriebssystem wie Windows 11 Pro sollen mindestens 100GB verwendet werden. Beim HQPlayer OS reichen stattdessen 16GB.
Bei den Mediadaten hängt es natürlich von der eigenen Musiksammlung ab. Als Faustformel gilt hier ein Speicherbedarf von 500 MB pro CD im Dateiformat FLAC. Demnach ergibt sich für einen 1 TB großen Datenträger ein Speichervolumen von 2.000 CD’s oder ca. 30.000 Titeln.
Formfaktor
Das beste Kabel ist kein Kabel. Wer diesen Grundsatz beherzigt, investiert lieber in keine teuren SATA Kabel, sondern nutzt gleich die Formfaktoren M.2 und PCIe. Hinzu kommt, dass beide Anschlussarten oft eine direkte Anbindung an die CPU ermöglichen und keinen Umweg über den Chipsatz machen.
Rauschfreiheit
Alle Speichermedien erzeugen elektromagnetisches Rauschen. Dieses gilt es gering zu halten. Wer SATA Speicher verwendet, darf sich neben den ungünstig hohen Latenzen auch noch über das Rauschen des SATA Controllers freuen. Die SATA Kabel führen an hochfrequenten Bauteilen vorbei und können das Rauschen noch verstärken.
Zwar ermöglicht der fis Audio PC Anschlussmöglichkeiten von SATA. Ich rate jedoch dringend davon ab. Im fis Audio PC wird der SATA Controller standardmäßig deaktiviert.
Speicherzellen mit 1 Bit (SLC) oder 3D XPoint benötigen weniger Energie und sind daher rauschärmer als andere Speicherzellentypen.
Haltbarkeit
In der Regel geben Hersteller eine Schätzung mit den so genannten Terabyte(s) written (TBW) ab. Also der maximal möglichen Schreibrate bis zum Ausfall. Die sind auch beim Speichertyp QLC schon so großzügig bemessen, dass eine Haltbarkeit von 5 Jahren (oft die auf TBW eingeschränkte Herstellergarantie) und länger sehr wahrscheinlich ist.
Speicher für das Betriebssystem
Wer die haltbarsten SSD Speicher mit geringsten Latenzen nutzen will, der nimmt die NAND Speicher vom Typ SLC. Hier bieten sich die Intel Optane Serien an, die mit 3D XPoint ähnlich funktionieren. Leider werden sie nicht mehr produziert, aber es gibt noch Restbestände.
Als Lösung drängt es sich vordergründig auf die Musikfiles direkt auf dem Audio PC abzuspeichern und abzuspielen. Es muss nur ein Gerät untergebracht werden und je näher die Quelle ist, desto besser könnte es klingen.Wer die beste Qualität haben will, muss tief in die Tasche greifen.
Es gibt Hersteller, welche eine herkömmliche NAND SSD mit TLC Speicherzellen als Pseudo-SLC SSD modifizieren. Dadurch wird der Speicherplatz um ein Drittel reduziert. Der Hersteller Zzyzx ermöglicht sogar noch eine externe (lineare) Stromversorgung und hat eine Femto Clock auf die Platine montiert. Kein billiges Vergnügen.
Es ist meines Erachtens sinnvoller für deutlich weniger Geld in ein hochwertiges NAS zu investieren. Dort können dann preisgünstige moderne QLC-SSDs montiert werden. Einen guten Anhaltspunkt bieten Tests von zum Beispiel ComputerBase Bestenliste: SSD-Kaufberatung.
Hinzu kommt meine eigene Erfahrung. Den besten Klang erzielte ich bisher mit einer klaren Trennung zwischen Audio PC und dem Control PC (Music Server – NAS). Der mutmaßliche Grund liegt darin, dass ein Musikplayer wie z. B. Roon ständig mit dem Internet die Metadaten abgleicht und die Festplatten fortwährend nach neuer Musik absucht. Starke Festplattenaktivitäten sind natürlich auch beim eigentlichen Abspielen zu verzeichnen. Es schleichen sich im Hintergrund schnell elektronisches Rauschen und Interrupts ein, welche die typischen digitalen Schärfen und ein anämisches Klangbild ergeben. Siehe auch Grundlagen Audio PC & Control PC.
Der Control PC kann als NAS (Network Attached Storage) dargestellt werden, über den per Netzwerk zugegriffen wird. Ein NAS kann deshalb irgendwo im Keller stehen. NAS von z. B. QNAP oder Synology sind je nach Ausgestaltung preisgünstig und beliebt. Wer sich nicht auf eine proprietäre Software einlassen will und mehr Rechenleistung benötigt oder das NAS in der Nähe der Anlage betreibt, schafft sich etwas Lüfterloses wie zum Beispiel von Cirrus7 oder HFX an.
Unten im Bild wird als Control PC für die Steuerung und Verwaltung der Musik ein NAS mit dem Roon Core eingesetzt. Für die Musikwiedergabe wird der Audio PC genutzt und dieser rendert mit dem HQPLayer die Daten in bester Auflösung und sendet sie störungsfrei an den DAC.
Zusammenfassung
Speicher ist nicht gleich Speicher. Und es kommt auf den Einsatzzweck an. Für das Betriebssystem verwendest du am besten kleine Intel Optane SSDs mit 3D XPoint, die ähnlich wie 1 Bit (SLC) Speicherzellen funktionieren. Den diese rauschärmer und bieten den schnellsten Speicherzugriff mit geringsten Latenzen und Jitter und sind lange haltbar.
Für eine direkte Anbindung an die CPU unter Umgehung des Chipsatzes auf dem Motherboard empfehle ich die Formfaktoren M.2 und PCIe. Diese haben keine Kabel und werden direkt an das Motherboard angeschlossen.
Für deine Mediathek sind höhere Speicherkapazitäten erforderlich. Anstatt die Speicher im Audio PC mit zu verbauen empfehle ich stattdessen die Nutzung eines Control PCs, der auch ein NAS sein kann.
Vermeide SATA Festplatten, denn diese sind nicht nur extrem langsam, sondern erzeugen tendenziell mehr Rauschen.
Manche schwören auf USB-Sticks oder sogar auf SD-Karten, weil letztere besonders rauscharm sein sollen. Ich halte diese Speichermedien für sehr fehleranfällig und langsam. Und sie lassen sich auch nicht direkt an die CPU anbinden. Ich empfehle sie deshalb nicht.
Vielleicht rollst du jetzt die Augen und denkst: Ist doch egal, Hauptsache mir gefällt die Musik. Aber es kann nützlich sein zu wissen, wie Menschen hören und wie man selbst tickt.
Denn das ermöglicht die gezielte Suche nach deinen bevorzugten Stilrichtungen und hilft im Player sogar bei der Auswahl von Filtern.
Wir sehen uns folgend in den Grundlagen die Grund- und Obertöne und die Transienten an. Dann erörtern wir eine interessante Studie, die auch einen eigenen Test ermöglicht.
Grundlagen
Grundtöne und Obertöne*
Der Grundton ist der tiefste Ton oder die Grundfrequenz, die in einem Klang oder Ton erzeugt wird. Es ist der dominante Ton, den wir hören, wenn beispielsweise eine Saite gezupft, ein Instrument gespielt oder eine Stimme singt. Der Grundton bestimmt die Tonhöhe des Klangs. In der Regel hat jeder Klang einen charakteristischen Grundton, der ihm seine spezifische Klangfarbe verleiht. Der Grundton ist der erste und stärkste Ton in einem Klang und wird oft als das Hauptelement eines Klangs wahrgenommen.
Die Obertöne sind zusätzliche Töne, die über dem Grundton eines Klangs schwingen. Diese Obertöne sind ganzzahlige Vielfache der Grundfrequenz und haben eine höhere Frequenz als der Grundton. Obertöne bestimmen die Klangfarbe oder das Timbre eines Tons. Sie verleihen einem Klang seine einzigartige Charakteristik und helfen dabei, verschiedene Instrumente oder Stimmen voneinander zu unterscheiden. Obertöne tragen zur Klangqualität und -textur bei, indem sie dem Klang Reichtum, Wärme und Brillanz verleihen.
Die meisten natürlichen Klänge bestehen aus einem Gemisch aus Grundton und Obertönen. Die spezifischen Obertöne und ihre Intensitäten variieren je nach Klangquelle. Zum Beispiel kann die Art und Weise, wie eine Gitarrensaite gezupft wird oder wie ein Instrument gespielt wird, die Stärke und Anzahl der Obertöne beeinflussen.
In der Musik werden die Obertöne oft genutzt, um Klangfarben zu erzeugen, Harmonien zu erweitern oder Klänge zu formen. Sie spielen eine entscheidende Rolle in der Klangwahrnehmung und sind ein wichtiger Bestandteil der akustischen Eigenschaften von Musikinstrumenten und menschlichen Stimmen.
Transienten*
In der Akustik bezieht sich der Begriff „Transienten“ auf schnelle und vorübergehende Schallereignisse, die eine kurze Dauer haben und einen raschen Anstieg und Abfall der Schallenergie aufweisen. Transienten sind charakterisiert durch ihre schnelle Veränderung in der Schallintensität über einen kurzen Zeitraum. Der Anschlag eines Schlaginstruments wie einer Trommel oder eines Beckens erzeugt eine schnelle Schallwelle, die als Transient bezeichnet wird.
Das Hören von Transienten spielt eine wichtige Rolle in der Evolution des Menschen, insbesondere in Bezug auf die Überlebensfähigkeit und die Anpassung an die Umgebung. Transiente Geräusche können wichtige Informationen über Gefahren liefern. In der Natur könnten plötzliche Geräusche wie das Rascheln von Büschen, das Brechen von Ästen oder das plötzliche Knacken eines Zweigs auf die Anwesenheit von Raubtieren oder anderen potenziellen Bedrohungen hinweisen. Die Fähigkeit, diese Transienten wahrzunehmen und zu interpretieren, könnte dazu beigetragen haben, dass unsere Vorfahren frühzeitig auf Gefahren reagieren konnten, was ihre Überlebenschancen verbesserte.
Studie
Obertonhörer? Grundtonhörer? Hörtypen und ihre Instrumente.
Im Artikel „Obertonhörer? Grundtonhörer? Hörtypen und ihre Instrumente.“ von W.Gruhn, E.Hofmann, P.Schneider 2012 wurde eine Studie aus 2002 mit 2.000 Probanden beschrieben. Es wurde postuliert, dass zwei Möglichkeiten zur Tonhöhenwahrnehmung bestehen. Je nachdem, ob sich ein Hörer eher an der Grundfrequenz eines harmonischen Klangs (das heißt an dessen Grundton) oder an dessen Obertonstruktur orientiert.
Mit der Positronenemissionstomografie (PET) als bildgebendes Verfahren wurde die Aktivierung des auditorischen Cortex (Hörcortex) beim Hören von musikalischen Klängen in Abhängigkeit von spektralen und zeitlichen Aspekten zu untersucht.
Linker Hörcortex – Grundtonhörer
Die zeitlichen Verarbeitungsvorgänge (Tonlänge und Rhythmus) wurden im linken Hörcortex verortet. Die Gitarre spricht zum Beispiel verstärkt den Rhythmus an.
Welche Instrumente Grundtonhörer bevorzugen
Grundtonhörer bevorzugten oft Musikinstrumente, die kurze, scharfe oder impulsive Töne produzieren. Zum Beispiel Schlagzeug, Gitarre, Klavier, Trompete, Querflöte oder hohe Soloinstrumente.
Sie bevorzugten virtuose, impulsive und zeitlich synchrone Spielweisen. Dirigenten sind übrigens oft Grundtonhörer.
Rechter Hörcortex – Obertonhörer
Die spektralen sowie musikspezifischen Verarbeitungsvorgänge (Klangfarbe und Melodiekontur) wurden im Hörcortex der rechten Gehirnhälfte abgebildet. Ein Beispiel ist der Kontrabass.
Welche Instrumente Obertonhörer bevorzugen
Die Obertonhörer bevorzugten in der Regel Musikinstrumente, die länger ausgehaltene Töne mit charakteristischen Klangfarben produzieren. Zum Beispiel Streich-, Blech- oder Holzblasinstrumente in tieferen Lagen, Orgel oder Gesang.
Kurztest zur Grundton- und Obertonerkennung
Du kannst selbst testen, wo deine Schwerpunkte liegen: Kurztest – Forschungsgruppe Musik und Gehirn-PD Dr. Peter Schneider,Heidelberg (musicandbrain.de). Der Testablauf ist recht einfach. Als erstes wirst du auf der Seite gebeten, die Lautstärke mit einem Testton einzustellen. Anschließend siehst du das Bild unten. Mit „Abspielen“ werden zwei Töne abgespielt. Du sollst beurteilen, ob die Tonfolge ansteigend (klicke auf die linke Schaltfläche oo) oder absteigend (klicke auf die rechte Schaltfläche o o) ist. Wenn du dir unsicher bist, wiederhole die Tonfolge. Die Töne hören sich synthetisch an und sind daher gewöhnungsbedürftig. Du kannst den kompletten Test jederzeit wiederholen.
Wenn alle Tonfolgen gespielt wurden, erhältst du eine kurze verbale Auswertung. Bei mir stand: „Sie sind ein leichter Obertonhörer.“ Also nicht ganz eindeutig, aber realistisch. Denn ich schätze Klangfarben und Gesang sehr. Ich bin aber den perkussiven Instrumenten und generell rhythmischer Musik ebenfalls sehr zugetan.
Die Wahl des richtigen Filters
Bei der Wiedergabe von digitalen Quellen kann die Auswahl des Filters deinen persönlichen Hörgeschmack unterstützen! Hier führt für mich kein Weg am HQPlayer vorbei, weil nur dieser die spezifischen Auswahlmöglichkeiten bietet.
Wenn ich Electronic, Jazz, Blues, Pop und Rock höre, bevorzuge ich aufgrund der Rhythmik einen transientenbezogenen Filter wie zum Beispiel „poly-sinc- gauss-short“. Es handelt sich um einen kurzen gaußschen Polyphasen-Sinc-Filter mit optimalen Zeit-/ und Frequenzgang. Der Filter spricht in erster Linie den Grundtonhörer an. Bei SDM-Ausgängen erfolgt die Verarbeitung in zwei Stufen mit 16-facher Zwischenrate und ist deshalb selbst bei DSD1024 noch gut zu betreiben.
Bei Classical, Jazz und Blues meist in HiRes höre ich gern den Filter „poly-sinc- gauss-xl“. Es handelt sich um einen extra langen gaußschen Polyphasen-Sinc-Filter mit extrem hoher Dämpfung. Optimaler Zeit-Frequenzgang. Bei SDM-Ausgängen erfolgt die Verarbeitung in zwei Stufen mit 16-facher Zwischenrate. Er eignent sich sehr gut für Transienten, Klangfarben und für die räumliche Darstellung. Also ein Allrounder für Grundton- und Obertonhörer.
Wie schon im letzten Newsletter: Was bringt HiRes, wenn der Mensch nur bis 20 kHz hört? beschrieben, bietet die Hirnforschung einige Überraschungen. Nicht nur, dass der Mensch nachweislich auf Ultraschall reagiert, sondern auch dass die Grund- und Obertöneverschiedene Hirnareale unterschiedlich ansprechen. Und der Mensch sehr individuell entweder veranlagungs- oder/und lernbedingt mehr Grund- oder Obertonhörer ist.
Lieben Grundtonhörerschnelle, kurze Impulse, virtuose Fingerübungen und präzise Rhythmen, so schmeicheln dem Obertonhörerlange, getragene Melodien, Klangfarben und Harmonien. Kommen dem Grundtonhörer Instrumente wie Schlagzeug, Gitarre, Klavier und hohe Soloinstrumente entgegen, bevorzugen Obertonhörer dagegen Streich- sowie Blech- oder Holzblasinstrumente in tieferen Lagen, Orgel und Gesang.
Wenn du es genau wissen willst, was du bevorzugst, dann mache den Kurztest. Und wähle unterstützend zu deiner Hörausprägung bei digitalen Quellen die passenden Filter.
Es ist die stets wiederkehrende Frage, was High Resolution (HiRes) überhaupt bringt? In der digitalen Signalverarbeitung liegen die Vorteile zum Beispiel im Einsatz von flacheren Filtern, die deutlich weniger Pre-/ und Post-Ringing aufweisen. Siehe auch Audio PC HQPlayer Filtereigenschaften.
Und Analog? Dazu gibt es mittlerweile gut erforschte und verblüffende Erkenntnisse. In den Grundlagen beleuchten wir das menschliche Hörvermögen und sehen uns dann die möglichen Vorteile von HiRes an.
Grundlagen
Menschliches Hörvermögen
Unser Hörvermögen basiert auf zwei Hauptmerkmalen: der Frequenz (Tonhöhe) und der Lautstärke (Schallintensität und Dynamik). Diese beiden Eigenschaften ermöglichen es uns, Klänge und Geräusche in unserer Umgebung zu erkennen und zu verstehen.
Frequenzbereich*
Das menschliche Hörvermögen erstreckt sich in der Regel über einen Frequenzbereich von etwa 20 Hertz (Hz) bis 20.000 Hertz. Dieser Bereich wird als hörbares Spektrum bezeichnet. Innerhalb dieses Spektrums können wir eine Vielzahl von Tönen und Klängen wahrnehmen. Die Frequenz eines Tons wird in Hertz gemessen, wobei niedrige Frequenzen tiefe Töne und hohe Frequenzen hohe Töne erzeugen. Das menschliche Ohr ist empfindlich für eine breite Palette von Frequenzen, was es uns ermöglicht, Musik, Sprache, Tierlaute und andere Geräusche zu hören und zu unterscheiden.
Lautstärke*
Das menschliche Hörvermögen umfasst einen beeindruckenden Dynamikbereich in Bezug auf die Lautstärke, der in Dezibel (dB) gemessen wird. Der Durchschnittsbereich, den die meisten Menschen wahrnehmen können, liegt etwa zwischen 0 dB (die Hörschwelle, bei der die leisesten hörbaren Töne wahrgenommen werden) und 120 dB (der Schmerzschwelle, bei der Schall als schmerzhaft laut empfunden wird). Dieser Bereich erstreckt sich über insgesamt 120 dB.
Hier ist eine grobe Aufteilung dieses Bereichs:
dB
Hörbereich
0
Die Hörschwelle, bei der leiseste hörbare Töne wahrgenommen werden.
20-40
Flüstern, leise Umgebungsgeräusche.
60-80
Normale Gespräche, Radio- oder Fernsehgeräusche.
80-90
Straßenlärm, Staubsauger, laute Musik in einem Auto.
Die Hörschwelle beginnt beim Menschen nicht linear mit 0 dB, sondern ist von der Frequenz abhängig. Die untere Linie zeigt Hörschwelle und der gestrichelte Anteil beschreibt die mögliche Hörkurvenveränderung durch übermäßige Hörbelastung. Die obere Linie ist die Schmerzgrenze. Die 0 dB-Hörschwelle wird zwischen 1kHz und 5kHz erreicht. Bei den niedrigen und sehr hohen Frequenzen muss der Schalldruck stattdessen deutlich höher sein.
Dynamikbereich
Wenn wir von maximal 110 dB Musik-Lautstärke ausgehen und die Musik ab 20 dB hörbar ist, dann hören wir in der Regel in einem Dynamikbereich von ca. 90 dB. Allerdings umgibt uns auch ein Grundlärmpegel. In einem ruhigen Schlafzimmer bei Nacht liegt das Grundgeräusch bei ca. 30 dB, in einer „leisen“ Bücherei liegt der Grundlärmpegel schon bei 40 dB.
Hinzu kommt der Maskierungseffekt. Dieser tritt auf, wenn mehr als nur ein Ton in Erscheinung tritt. Ist als Beispiel ein 1000-Hz-Ton im Raum vorhanden, bildet sich spektral gesehen um diesen herum eine akustische Maske. Das heisst, Töne in der Nähe (vor allem oberhalb) dieses Tones kann unser Gehör erst aber einer gewissen Lautstärke wahrnehmen. So schmilzt der Dynamikbereich zusammen.
Im Alter abnehmende Hörfähigkeit
Mit zunehmenden Alter nimmt deine Hörfähigkeit ab. Jedenfalls dann, wenn du nicht gerade einem Naturvolk angehörst, denn diese Völker kennen das Problem nicht. Die Schwerhörigkeit im Alter betrifft hauptsächlich die hohen Frequenzen.
Unten im Bild ist der Anstieg der Hörschwelle mit zunehmendem Lebensalter bei Frauen (links) und Männern (rechts) dargestellt. Männer sind stärker vom Hörverlust betroffen als Frauen.
Frequenzbereiche von Musikinstrumenten und Stimmen
Grundtöne und Obertöne
Die Grundtöne bestimmen die wahrgenommene Tonhöhe, während die Obertöne, die ein Vielfaches des Grundtons sind, die Klangfarbe erzeugen. Also beispielsweise, ob wir bei gleichem Grundton eine Geige oder eine Flöte hören. Der Grundton ist oft der lauteste und klarste Bestandteil eines Klangs, während die Obertöne in den höheren Frequenzen leiser werden.
Instrumenten Frequenz-Diagramm
Im Diagramm unten wird die jeweilige Bandbreite der Instrumente dargestellt. Die Grundtöne (Fundamentals) sind in dunkler Farbe dargestellt und die Obertöne (Harmonics) sind aufgehellt. Es ist gut zu erkennen, dass nur einzelne Instrumente mit ihren Grund- und Obertönen über 10kHz hinausgehen.
High Resolution (HiRes)
Definition*
Die HiRes Aufnahmen verwenden oft eine höhere Abtastrate als herkömmliche Audioformate. Während CDs in der Regel eine Abtastrate von 44,1 kHz haben, können HiRes-Dateien Abtastraten von 96 kHz, 192 kHz oder sogar höher aufweisen. Zu beachten ist die Nyquist Grenzfrequenz. Der hörbare Frequenzbereich liegt deshalb immer in der ersten Hälfte der Abtastrate. Bei 44,1 kHz sind maximal 22,05 kHz hörbar und bei 96 kHz sind maximal 48 kHz möglich.
High Resolution Audio bietet in der Regel mehr Bit-Tiefe. Während CDs eine Bit-Tiefe von 16 Bit haben, können HiRes-Dateien 24 Bit oder mehr aufweisen. Dabei steht 1 Bit für eine Lautsärke von 6dB. Bei CDs wird deshalb ein Dynamikumfang von 96 dB angedeckt. HiRes kann 144 dB umfassen.
Was für die CD spricht
Unser Hörvermögen geht maximal nur bis 20 kHz. Wenn du zur Babyboomer-Generation gehörst, dann kannst du froh sein, wenn du noch bis 10 kHz gut hörst. Sieht man sich den Frequenzbereich der Musikinstrumente an, dann gehen die meisten kaum über 10 kHz hinaus. Und unser hörbarer Dynamikbereich liegt bei rund 90 dB. All das spricht auf den ersten Blick für die CD als Medium.
Was für HiRes spricht
Im Bild unten wird eine Hüllkurve (die Summe aller Frequenzen) über einen weiten Frequenzbereich bis 48 kHz gezeigt. Diese bildet eine hohe Dynamik zwischen 3 dB und 144 dB ab. Im kleineren Kästchen (Blau) ist das CD-Format zu sehen. Diese Aufnahme kann in einer CDweder von der Bandbreite, noch von der Dynamik vollständig abgedeckt werden.
Laut dem oben gezeigten Instrumenten Frequenz-Diagramm ist die Bandbreite jedoch im Frequenzrahmen bis 20 kHz angegeben. Kann man das so stehen lassen?
Spektrogramm
Im HQPlayer besteht die Möglichkeit sich das Spektrogramm eines Titels in Echtzeit anzusehen.
Dabei wird Das Frequenzspektrum der Quelle bis zur möglichen Nyquist-Frequenz angezeigt. Die Spektrogramm-Anzeige wird mit der Zeit auf der horizontalen Achse und der Frequenz auf der vertikalen Achse dargestellt. Die Farbcodierung dient zur Anzeige des Signalpegels (in dB) im Zeit-/Frequenzraum.
Im Bild unten sind der HQPlayer Client mit Abbildung des Spektrums im linken und rechten Kanal, rechts daneben Roon und darunter in der Leiste das Programm htop für die CPU-Auslastung zu sehen. Die Bandbreite der HiRes Aufnahmen mit 96 kHz wird mit dem möglichen 48kHz voll ausgeschöpft. Das obere Band scheint sogar etwas beschnitten zu sein.
Unten ist ein Spektrogramm mit einer HiRes 192 kHz Aufnahme. Deutlich zu sehen sind Spitzen, die bis zu 96 kHz gehen! Diese Aufnahmen sind mit guten Mikrofonen möglich. Zum Beispiel mit einem 100 kHz Mikro: Sanken Chromatisch | CUX-100K 3-Wege-Niere (nah und fern) & Omini-Mikrofon (sankenchromatic.com). Nahmikrofonierte Drum-Kits / Percussions wie unten in der Aufnahme erreichen das 100 kHz Spektrum.
Ultraschallanteile verändern die hörbare Hüllkurve
Hier möchte ich auf ein kleines Experiment verweisen, wo dieselbe Aufnahme auf 15 kHz begrenzt wurde und mit der ursprünglichen HiRes-Aufnahme verglichen wurde:
Die Hüllkurve (das Summensignal aller Frequenzen, die in einem Musikstück vorhanden sind) eines auf 15 kHz begrenzten Musiksignal ist nicht identisch mit der Hüllkurve des HiRes-Musiksignals mit vollem Frequenzumfang. Die fehlende Energie der Frequenzanteile oberhalb von 15 kHz machen sich in einer leicht verändertenHüllkurve bemerkbar, die notabene im Hörbereich liegt!
Ultraschallanteile führen zur verstärkten Hinrnaktivität
Zur Frage, ob sich Schallanteile oberhalb der Hörschwelle im Hirn bemerkbar machen, gibt es eine interessante Studie aus 2000:
In dieser Studie haben wir nicht-invasive physiologische Messungen von Gehirnreaktionen verwendet, um den Nachweis zu erbringen, dass Klänge, die hochfrequente Komponenten (HFKW) oberhalb des hörbaren Bereichs enthalten, die Gehirnaktivität der Zuhörer signifikant beeinflussen. Als natürliche Schallquelle nutzten wir die Gamelan-Musik von Bali, die extrem reich an HFKW mit instationärer Struktur ist, und teilten sie in zwei Komponenten: eine hörbare niederfrequente Komponente (LFC) unterhalb von 22 kHz und eine HFKW-Komponente oberhalb von 22 kHz. …. Keiner der Probanden erkannte den HFC als Klang, wenn er allein präsentiert wurde. Nichtsdestotrotz stiegen die Leistungsspektren des Alpha-Frequenzbereichs des spontanen Elektroenzephalogramms (Alpha-EEG), die aus der Okzipitalregion aufgezeichnet wurden, mit statistischer Signifikanz an, wenn die Probanden einem Schall ausgesetzt wurden, der sowohl einen HFKW als auch einen LFC enthielt, verglichen mit einem ansonsten identischen Schall, aus dem der HFC entfernt wurde (d. h. LFC allein). … Wir nennen dieses Phänomen den „Hyperschalleffekt“ (orig.: hypersonic effect).
HCS / High Cut Sound = Musik ohne Ultraschallanteile
FRS / Full Range Sound = ganzes Frequenzspektrum der HiRes-Aufnahme (96 kHz).
Bei FRS (HiRes) sind signifikant stärkere Gehirnaktivitäten nachweisbar!
Eine weitere Studie aus 2014 behandelte die Frage, ab welcher Frequenz die Hirnaktivitäten anstiegen:
Wenn ein HFC (High-Frequency Component) oberhalb von ca. 32 kHz angelegt wurde, stieg das Alpha-2-EEG signifikant an, verglichen mit einer ausschließlichen akustischen Beaufschlagung (positiver Hyperschalleffekt), während bei HFC unterhalb von ca. 32 kHz das Alpha-2-EEG abnahm (negativer Hyperschalleffekt). Diese Ergebnisse deuten darauf hin, dass die Entstehung des Hyperschalleffekts von den Frequenzen des unhörbaren HFKW abhängt.
Im Bild unten wird der Versuchsaufbau dargestellt, wie mit einem Schalter die Superhochtöner zugeschaltet wurden.
Mit einer Clusterung von 8 kHz wurden die Gehirnaktivitäten in den jeweiligen Frequenzbereichen gemessen. Erst ab 32 kHz trat ein positiver Effekt auf. Am stärksten wirkte der Ultraschall zwischen 80 – 88 kHz.
Klangliche Auswirkungen von HiRes
Jussi Laako, der Schöpfer des HQPlayers, hat Experimente mit einem Glockenspiel durchgeführt und kommt zu folgendem Schluss:
Da die Mikrofone in der gleichen Entfernung vom Glockenspiel (im normalen Raum) wie meine Ohren platziert waren, konnte ich den direkten Klang des Instruments mit dem über Kopfhörer aufgenommenen Klang vergleichen. Sicherlich war die 192k-Version viel näher am Original als die 48k-Version.
Das menschliches Hörvermögen ist zwar im Frequenzbereich zwischen 20 Hz bis 20 kHz beschränkt und nimmt im Alter sogar noch ab. Die Frequenzbereiche von Musikinstrumenten und Stimmen spielen sich mit ihren Grundtönen und Obertönen meist bis 10 kHz ab. Die wahrnehmbare Lautstärke ist frequenzabhängig und umfasst einen Dynamikbereich von rund 90 db. Das alles spricht für die CD, deren Abtastrate mit 44,1 kHz eine Frequenz bis 22,05 kHz abdeckt. Und auch die Auflösung mit 16 Bit ermöglicht einen ausreichenen Dynamikbereich von 96 dB.
Im Spektrogramm ist jedoch deutlich zu sehen, dass es auch HiRes-Aufnahmen mit Frequenzen bis 96 kHz gibt. Dies ist möglich, wenn für die Aufnahme sehr gute Mikrofone bis 100 kHz verwendet werden. Durch Messungen wurde belegt, dass nicht hörbare Ultraschallanteile die hörbare Hüllkurve verändern. In der Hirnforschung wurde bewiesen, dass nicht hörbare Ultraschallanteile (ab 32 kHz)zur verstärkten Hirnaktivität führen, wenn sie mit den hörbaren Schallanteilen kombiniert wurden. Die Zusammenhänge sind zwar noch unklar. Subjektive Klangvergleiche mit unterschiedlichen Aufnahmeformaten bestätigen jedoch den positiven Einfluss von HiRes.
Ich denke bei totkomprimierter Musik wie zum Beispiel Rock, Pop muss man sich keine Gedanken über HiRes machen. Gleiches gilt bei HiRes Mogelpackungen. Bei sehr guten Aufnahmen von Klassik und Jazz, aber auch bei Schlagzeug mit einem weiten Frequenz-/ und Dynamikbereich lohnt sich HiRes.
Puristen sagen, dass eine bitgerechte Wiedergabe im NOS(Non Oversampling) völlig ausreichend ist. Denn der Mensch hört nur bis max. 20kHz und ein Oversampling kann nichts hinzufügen, was auf der Quelle nicht drauf ist.
Hört sich erstmal logisch an. Bis man tiefer in die Signalverarbeitung einsteigt und feststellt, da können jede Menge Fehler passieren. Schon im Aufnahmeprozess.
In den Grundlagen sehen wir uns den Weg von der Aufnahme bis zur Wiedergabe einer CD in der heimischen Musikanlage an. Anschließend beschäftigen wir uns mit möglichen Verbesserungen von sogar verhunzten Aufnahmen.
Grundlagen
Von der Aufnahme zur Wiedergabe
Analog to Digital Conversion (ADC)
Oben im Bild ist der Aufnahmeprozess im Beispiel beschrieben. Es wird die Produktion und die Wiedergabe einer CD (RedBook) gezeigt. Bei der digitalen Signalverarbeitung kommt die Delta-Sigma-Modulation (DSD) zum Einsatz. Diese Technik kann seit den 1970er Jahren mit den Fortschritten in der CMOS-Technologie preiswert umgesetzt werden. Delta-Sigma-Modulatoren werden von vielen großen Halbleiterherstellern als fertige integrierte Schaltung angeboten und deshalb findest du sie oft in ADC-/ oder DAC-Chips.
Aufgenommen wird mit einer DAW (Digital Audio Workstation) und einem guten Mikro mit einem Frequenzgang bis 50kHz. Die analogen Signale werden digitalisiert und vom Delta Sigma Modulator auf DSD128 (5,6MHz/1Bit) umgerechnet. Ein Dezimatorreduziert dann die Samplingrate auf das gewünschte Format von 44.1kHz/16Bit. Anschließend kann ein Mastering erfolgen (im Bild nicht dargestellt) und das Musikstück wird auf einer CD oder einem anderen Datenträger gespeichert.
Digital to Analog Conversion (DAC)
Du nimmst die CD und spielst sie ab. Dabei muss der DAC den umgekehrten Weg gehen und das digitale Signal oversamplen, damit der Modulator DSD128 (5,6MHz/1Bit) im Ausgang die Rohdaten für die Umwandlung in Analog bereitstellen kann. Aufgrund der Nyquist Grenzfrequenz bleibt das Audioband auf die Hälfte der ursprünglichen Abtastrate begrenzt und ermöglicht einen Wiedergabebereich von 20Hz bis maximal 22,05Hz (1/2 von 44,1kHz).
Verbesserte Rekonstruktion
Fehler im Aufnahmestudio kompensieren
Hoffentlich liest das jetzt kein Toningenieur. 😄 Aber ja es ist nun mal Realität, dass sich nicht jeder Musiker ein Abbey Road Studio leisten kann. Manche Tonstudios müssen mit weniger werthaltigem Equipment auskommen. Und so manch Musiker produziert seine Aufnahmen selbst. Oder es passieren einfach Fehler beim Mastering. Jussi Laako, der Entwickler vom HQPlayer behauptet sogar, dass 90% von RedBook kein gutes Mastering ist! Gute und schlechte Qualitäten sind nicht nur hörbar, sondern auch messbar.
Nachfolgend stelle ich einige Beispiele vor. Dafür verwende ich das Spektrogramm vom HQPlayer.
Mogelpackungen
Im Titelbild siehst du eine Quelle mit eigentlich 44.1kHz, die aber nur ein Frequenzspektrum bis ca. 10kHz zur Verfügung stellt! Mogelpackungen kannte ich bisher nur von HiRes-Dateien, womit wir zum nächsten Beispiel kommen.
Kürzlich hörte ich den Titel Alone Together von Chet Baker in der HiRes Version mit 192kHz. Das ist eine Aufnahme von 1959. So richtig wollte das nicht zünden. Im Spektrogramm unten sieht man auch warum. Nur ein Bruchteil der Bandbreite (bis ca. 20kHz) wird genutzt. Möglich wären 96kHz (die Hälfte der ursprünglichen Quellfrequenz). Stattdessen sind im oberen Rand vermutlich Alias-Effekte (roter Bereich) zu sehen. Der Apodisierungszähler links schießt deshalb abartig in die Höhe.
Was machst du, wenn dir die Aufnahme sehr gut gefällt und die Tonqualität gut sein soll? Hier kommt eine Stärke von Roon hinzu. Wenn du auf „Versionen“ klickst, bekommst du alle vorhandenen Versionen angezeigt. Ich fand eine gute 44.1kHz Version. Hier sehen wir jetzt eine schöne Ausnutzung der möglichen Bandbreite bis 22,05kHz und eine gute Dynamik. Der Apodisierungszähler schlägt auch nicht an.
Beispiel für Stromstörungen
Hier ist ein Titel in 44,1kHz mit einer sehr schönen Dynamik. Das Frequenzspektrum wird bis zur Nyquist-Frequenz von 22,05kHz voll ausgeschöpft. Bei genauerem Hinsehen ist eine horizontale Linie bei ca. 10kHz zu sehen. Die übliche Quelle dafür ist in der Regel ein Schaltnetzteil, das zur Stromversorgung des A/D-Wandlers verwendet wird. Es gibt auch SMPS-betriebene ADCs, die keine solchen Störungen aufweisen.
Beispiel für übertriebene Lautheit
Das Problem der heutigen Zeit sind totkomprimierte Musikstücke (Loudness War). Diese Komprimierung des Audiosignals führt zwar zu einer konstanteren „Hörbarkeit“ der Musik, hat aber auch einen hohen Verlust an Dynamik zur Folge. Es kommt vor, dass die oberen Bänder dadurch beschnitten werden. Im Bild unten sind im Spektogramm die abgeschnittenen Linien mit einem hohen Rot-Anteil gut zu erkennen. Links schießt in der Zeile „Limited / Apod.“ der Apodisierungszähler als Indikator für ein schlechtes Mixing auf über 8.000 nach oben. An den hohen Werten kann auch ein schlechter Dezimator im ADC verantwortlich sein.
Apodisierungsfilter als Problemlöser
Der Einsatzzweck des Apodisationsfilters ist es, die Impulsantwort des ursprünglichen Dezimationsfilters durch eine andere hochwertigere zu ersetzen. Dies ermöglicht das Ändern des Zeit- und Frequenzbereichsverhaltens des ursprünglichen Filters. Ein möglicherweise wichtigerer Punkt ist das Bereinigen des Aliasing-Bands bei den höchsten Frequenzen. Abhängig von den ADC / Mastering-Werkzeugen kann es zu einem gewissen Aliasing-Band am oberen Rand des Frequenzbands kommen.
Nicht apodisierende Filter lassen die (möglicherweise fehlerhaften) produktionsseitigen digitalen Filtereigenschaften durch. Apodisierende Filter sind für Samplingraten von 44.1/48kHz wegen der niedriger liegenden Nyquist-Raten am wichtigsten.
Mir ist kein DAC mit apodisierenden Filtern bekannt. Auch ist die Rechenleistung im DAC begrenzt. Bei den weit verbreiteten Delta Sigma Chips im DAC erfolgt vor der Wandlung in Analog ein Upsampling in DSD. Warum also nicht gleich dem DAC das Musikstück in DSD zuführen? Weitere Infos erhältst du hier: Wie arbeitet ein DAC und was kann Upsampling bewirken?
Zusammenfassung
Leider wird dem geneigten Musikhörer nicht immer die beste Quelle angeboten. Schlechtes Equipment des Tonstudios oder schlicht Digitalisierungsfehler können den Musikgenuss deutlich trüben. Mit dem HQPlayer Apodisierungszähler kanst du schlechte Quellen schnell erkennen. Und verwende einen apodisierenden Filter für Samplingraten von 44.1/48kHz, weil sich in diesem Bereich am ehesten Aufnahmefehler bemerkbar machen. Fall nicht auf Mogelpackungen herein und verwende bei neuen Aufnahmen zur Kontrolle das Spektrogramm vom HQPlayer. Im Zweifel ist eine andere Aufnahmeversion, sofern vorhanden, zu bevorzugen.
Im DAC wird oft ein Delta-Sigma-Chip eingesetzt. Hier kannst du von den hochwertigen Modulatoren des HQPlayers profitieren und dem DAC die Arbeit erleichtern. Führe ein Upsampling von PCM in DSD mit dem HQPlayer durch und du umgehst die einfachen Filter, Oversampling– und Modulatorenstufen im DAC (in Abhängigkeit des DAC-Designs). Den DAC betreibst du möglichst im NOS (Non Oversampling).
Wie üblich gehe ich zum besseren Verständnis kurz auf technische Grundlagen ein und bewerte dann die vorliegenden Tests. In der Zusammenfassung werde ich die Frage in der Titelüberschrift beantworten.
Grundlagen
Intel® Core™ i9 Processor 14900K(F)
Hier kannst du die Grundlagen im letzten Artikel nachlesen, warum eine leistungsstarke CPU so wichtig ist:
Die Unterschiede vom i9-14900K zum Vorgänger i9-13900K sind sehr gering. Zu nennen sind:
Steigerung des Basistakts um 0,2 GHz auf 3,2 GHz
Der Turbo erhöht sich ebenfalls um 0,2 GHz auf 6 GHz
Im letzten Artikel hatte sich noch ein Fehler eingeschlichen. Ich schrieb zum i9-14900K: „Der L2 Cache verdoppelt sich auf 32,0 MB“. Das war falsch, da der i9-13900K ebenfalls einen L2 Cache von 32,0 MB hat.
Ich habe einen Benchmarkvergleich zu den KF-Versionen gefunden. Diese sind mit den K-Versionen identisch, nur die Grafikeinheit fehlt. Der Leistungsunterschied beträgt noch nicht einmal 1%!
Die vorliegenden Tests für Audio zu bewerten, ist nicht immer einfach. Denn die Tests werden meistens für Gamer gemacht und da kommt es vor allem auf die Grafik bei Spielen an. Manche veröffentlichen aber auch Tests mit mathematischen Verfahren, die unserem Anwendungsfall mit Upsampling und Convolution nahe kommen.
Ich habe exemplarisch zwei mathematisch-/wissenschaftliche Testverfahren herausgepickt.
Python
Bei Python wird in vielen Bereichen auf Intels Math Kernel Library (MKL) gesetzt. Hier liegt der Core i9-14900K vor dem Core i9-13900K leicht an der Spitze, während AMD aufgrund geringerer Taktfrequenz das Nachsehen hat.
Convolution
Convolution ist ein Benchmark für einen Teilbereich der Funktionsanalysis, bei dem als Produkt zweier Funktionen (Konvolution, Faltung) faktisch eine neue, dritte Funktion entsteht. Da Takt und Kernanzahl gleichermaßen wichtig sind, hat der Ryzen 9 7950X die Nase vorn. Der eigentliche Vergleich zwischen i9-14900K/13900K Cores ist wieder verschwindend gering.
Zwischenfazit
Das Bild wiederholt sich. Die Leistungsunterschiede zwischen den i9-14900K/13900K Cores sind gering. Wenn es auf die Taktfrequenz ankommt liegt grundsätzlich Intel vorn, während AMD bei Multicore-Anwendungen punkten kann.
Ein kleiner Exkurs: Für den HQPlayer und dem Upsampling auf DSD benötigen die hochwertigen Modulatoren eine möglichst hohe Taktfrequenz.
Energieverbrauch
Die Thermal Design Power (TDP) ist der Maximalwert für die thermische Verlustleistung des Prozessors, auf dessen Basis Kühlung und Stromversorgung ausgelegt werden. Es sind unveränderte 125W (253W Turbo). Die TDP kann im realen Betrieb höher oder niedriger sein. Mit dem i9-12900k benötige ich ca. 70W für DSD512 mit dem Modulator ASDM7ECv2 und dem Filter poly-sinc-gauss-xla. Mit dem i9-13900k und dem Modulator ASDM7EC-super 512+fs bin ich etwas höher.
Insofern sind die folgenden Aussagen mit Vorsicht zu bewerten, da die Kerne für die Tests meist bis zum Anschlag hochgefahren wurden.
Unter Volllast beim Compute oder Rendern ist er der unbestrittene Liebling jedes Energieversorgers.
Schaut man sich zugleich die Leistungsaufnahme in den Spielen an, so zeigt sich ein relativ klares Bild: Werden nicht alle zur Verfügung stehenden Kerne vollständig genutzt bzw. bewegt man sich nahe oder im GPU-Limit, sind die Raptor-Lake- und Raptor-Lake-Refresh-Prozessoren noch recht sparsam und kommen bei weitem nicht auf die Verbrauchswerte unter Volllast.
Die ersten drei CPUs der neuen „Generation“, die prestigeträchtigen K-CPUs, sind in Form von Core i9-14900K und Core i5-14600K nicht mehr als ein lauwarmer Aufguss, der in beiden Fällen bestenfalls niedrige einstellige Leistungszugewinne mit sich bringt, was mit einer gestiegenen Leistungsaufnahme einhergeht.
Der Heatspreader der CPU ist für die Kühlung ein wichtiger Bestandteil, weil vom Kopf der CPU die Wärme abgeführt werden muss.
Intel Core i9-13900K
Auch bei einem hochwertigen Motherboard ist die Standard Sockelhalterung grenzwertig. Es gibt billige Blechteile mit einem Spannbügel. Beim Sockel FCLGA1700 kommt es zu allem Überfluss durch die Klemmvorrichtung zu einem leichten Verbiegen des ILM (Internal Loading Mechanism). Dies kostet einige Grad Kühlung. Siehe auch IgorsLAB: CPU-Temperaturen im Rahmen? Dafür gibt es als Ersatz zum Beispiel das Thermal Grizzly CPU Contact Frame (rechts im Bild). Leider kann die Verwendung zum Garantieverlust des Motherboards führen. Die Handhabung ist auch nicht so einfach, da die Schrauben nicht zu fest angezogen werden dürfen. Richtig montiert wird die CPU besser gekühlt.
Intel Core i9-14900K
Erfreulicherweise scheint sich das Problem des gebogenen ILMs erledigt zu haben. Das Höheprofil war auch nach dem Einsatz immer noch gerade und nicht gewölbt! Siehe: Interessante Details zum Heatspreader – igor´sLAB.
Und ja, wenn man es sich überlegt, können Updates des BIOS oder des Betriebssystems dafür verantwortlich sein. Obwohl man sich von einem Update eigentlich eine Leistungssteigerung wünscht. Aber kürzlich las ich das: Windows 11: Neue Datenschutz-Optionen kommen exklusiv für Europa (pcgameshardware.de). Viele Updates resultieren aus regulatorischen Anforderungen und da ist die Effizienz egal.
Deshalb ist es keine schlechte Idee, im Laufe der Zeit das BIOS nur zu aktualisieren, wenn es Sicherheitsupdates oder Performance Verbesserungen gibt. Und als Betriebssystem soll für Audio spezialisierte Software wie HQPlayer OS oder Roon Rock verwendet werden.
Zusammenfassung
Bei bestimmten Hochleistungsanwendungen wie Spielen, kann der neue Intel Core i9-14900K punkten. Für unseren Anwendungsfall des hochwertigen Upsamplings und gegebenenfalls Convolution ergeben sich im Grunde genommen keine Leistungssteigerungen. Denn die Taktung kann wegen der Wäreentwicklung im passiv gekühlten fis Audio PC in der Regel nicht höher als 4,4GHz (P-Cores) gesetzt werden.
Der Energieverbrauch liegt bei „mäßigen Lasten“ sowohl in der 13. Generation, als auch in der 14. Generation im Rahmen. Wobei ich unter mäßiger Leistungsaufnahme zwischen 50W bis 90W verstehe, je nach HQPlayer Einstellung. Der fis Audio PC spielt also mit hohen Leistungsreserven, welches einen ruhigen audiophilen Betrieb ermöglicht.
Erfreulich ist die Entwicklung des Heatspreaders bei der CPU. Verbogene ILMs gehören wohl der Vergangenheit an. Allerdings sehe ich hier keinen Handlungsdruck, da die für den fis Audio PC hochwertige Halterung ein Verbiegen verhindert. Ich glaube nicht, dass ich diese billigen Klemmvorrichtungen in den Motherboards wieder nutzen möchte.
Wird der neue Intel Core i9-14900K nun für den fis Audio PC künftig angeboten? Immerhin sollen die Preise gegenüber der 13. Generation nicht angehoben werden und schlechter ist der Intel Core i9-14900K nicht geworden. Trotzdem lautet meine Antwort: nein! Zumindest vorerst. Ich möchte sehen, wie sich der neue Intel Core i9-14900K im Laufe der Zeit macht. Gerade bei neuen Produkten sind Bugs nie auszuschließen und der Intel Core i9-13900K funktioniert hervorragend.
Interessanter wird es voraussichtlich zum Ende 2024. Der „eche“ Nachfolger Arrow Lake wird für den Desktop mit einer wesentlich höheren Transistordichte angeboten. (vermutlicher Herstellungsprozess Intel 20A – 3 nm). Derzeit reden wir von Intel 7 (10 nm). Allerdings wird es dann auch einen neuen LGA 1851-Sockel geben, womit bestehende Motherboards nicht mehr genutzt werden können. In jedem Fall dürfte es zu einer deutlichen Leistungs- und hoffentlich auch Effizienzsteigerung kommen.
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.