Audio PC Datenübertragung

Einleitung

Im Computerzeitalter der digitalen Datenübertragungen gibt es viele Möglichkeiten die Musikfiles zu transportieren. Das gelingt leider nicht immer störungsfrei. Manchmal ist die Bandbreite nicht ausreichend. Oder das elektrische Rauschen dringt bis zum DAC durch.

Im fis Audio PC hast du grundsätzlich Wahlfreiheit.

Aktuelle Standards für den Audio Datentransport*

Die Taktung bei der Datenübertragung

Synchrone Audiodatenübertragung

Bei der synchronen Übertragung werden Daten in einem festen Zeitintervall übertragen. Dies bedeutet, dass das Sender- und Empfängergerät zuvor synchronisiert werden müssen, damit die Daten korrekt empfangen werden können. Synchrone Übertragungen sind in der Regel sehr genau und eignen sich gut für Echtzeitanwendungen, bei denen ein konstantes Timing erforderlich ist, wie zum Beispiel bei Telefonanrufen.

Einer der größten Nachteile der synchronen Audiodatenübertragung ist die potenzielle Latenzzeit oder Verzögerung. Wenn die Übertragung nicht in Echtzeit erfolgt, kann dies dazu führen, dass Audioverzögerungen auftreten. Dies ist besonders problematisch in Anwendungen wie Echtzeit-Audioverarbeitung, Musikproduktion oder Videokonferenzen, wo eine geringe Latenzzeit entscheidend ist. Jitter bezieht sich auf unregelmäßige Schwankungen in der Ankunftszeit von Datenpaketen. Dies kann bei synchronen Übertragungen auftreten und zu Störungen im empfangenen Audiosignal führen. Jitter kann die Klangqualität beeinträchtigen und erschwert die Synchronisierung von Audioströmen.

Asynchrone Audiodatenübertragung

Bei der asynchronen Übertragung werden Daten ohne ein striktes Timing übertragen. Dies bedeutet, dass Sender und Empfänger nicht in einem festen Rhythmus agieren müssen. Asynchrone Übertragungen sind flexibler und können variable Wartezeiten zwischen den Datenübertragungen aufweisen.

Ein Beispiel für asynchrone Audiodatenübertragung ist die Verwendung von Dateiübertragungen über das Internet. Hier werden Audiodateien ohne regelmäßige Intervalle übertragen. Die Übertragung kann je nach Netzwerkbedingungen variieren, und es können Puffer verwendet werden, um Schwankungen in der Übertragungsgeschwindigkeit auszugleichen.

Der Empfänger taktet die Daten neu aus dem Puffer. Deshalb wird bei der asynchronen Datenübertragung häufig argumentiert, dass Jitter keine Rolle spielt. Dieser Meinung bin ich nicht, weil ein Reclocking deutliche Klangsteigerungen bringen kann. Siehe auch der Newsletter: Neue Thesen zum Reclocking.

Fehlerhafte Datenpakete werden über CRC-Prüfsummen erkannt und korrigiert. Reicht die Zeit dafür nicht mehr aus, kommt es zu Drop Outs.

Isochrone Audiodatenübertragung

Der isochrone Transfer ist für Daten geeignet, die eine konstante Datenrate benötigen. Der Unterschied zur asynchronen Übertragung liegt in einem Signal mit konstanten Intervallen. Der zeitliche Abstand zwischen zwei übertragenen Frames ist stets gleich groß.

Bei USB ist die Übertragung mit einer CRC-Prüfsumme gesichert, wird aber bei einem Übertragungsfehler durch die Hardware nicht wiederholt. Daher kommt es bei fehlerhaften Datenübertragungen zum Knistern wie von einer Schallplatte. Isochrone Übertragungen werden zum Beispiel von der USB-Audio-Class benutzt, die bei externen USB-Soundkarten Verwendung findet.

Die Schnittstellen bei der Datenübertragung

Diagramm der Standard Audio Schnittstellen

Im Bild unten sind die gängigen digitalen Schnittstellen aufgelistet, die wir uns nachfolgend ansehen.

USB (Universal Serial Bus)

USB-Anschlüsse werden häufig verwendet, um Audioinformationen zwischen Computern, digitalen Audiogeräten und Peripheriegeräten zu übertragen. Ein USB-Anschluss kann dazu verwendet werden, digitale Audiosignale von einem Computer an externe USB-DACs (Digital-Analog-Wandler) oder andere Audiogeräte zu senden.

Die erforderliche Datenrate ergibt sich aus dem Produkt des Abfrageintervalls und der Größe des Datenpuffers. Hi-Speed-Geräte können bis zu drei Übertragungen je Micro-Frame (125 µs) mit bis zu 1024 Byte ausführen (24.576 kB/s). USB 2.0 bietet eine maximale theoretische Bandbreite von 480 Mbit/s. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

Bei USB-DACs (Digital-Analog-Wandler) ist die Datenübertragung isochron. Hierbei bestimmt der DAC die Taktrate und fordert Daten vom Quellgerät an.

LAN (Local Area Network)

Ein LAN ist ein Netzwerk, das Geräte in einem festgelegten Bereich miteinander verbindet. In Bezug auf Audio kann ein LAN verwendet werden, um Audiodaten zwischen verschiedenen Computern, Audiogeräten und Medienservern zu übertragen. Streaming von Audio über ein LAN ermöglicht es, Musik oder andere Audiodaten von einem zentralen Server oder einer Quelle an verschiedene Abspielgeräte im Netzwerk zu senden.

Bei herkömmlichen Gigabit-Ethernet-Verbindungen beträgt die Bandbreite bis 1 Gbit/s. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

In Ethernet-Netzwerken erfolgt die Datenübertragung asynchron unter Verwendung der Empfängeruhren (Receiver Clocks). In einem Ethernet-Framesignal sind normalerweise Taktinformationen enthalten, die der Empfänger verwenden kann, um die Datenbits zu synchronisieren und sie korrekt zu interpretieren.

WLAN (Wireless Local Area Network)

WLAN bezieht sich auf drahtlose Netzwerke, die auf Funktechnologien basieren und Geräte über kurze Entfernungen miteinander verbinden. WLAN wird oft verwendet, um drahtlosen Internetzugang bereitzustellen, kann aber auch für drahtlose Audioübertragungen genutzt werden. Mit WLAN können drahtlose Audiogeräte, wie Lautsprecher oder Kopfhörer, Audiosignale von einem Sender (z. B. einem Smartphone, Computer oder einem zentralen Audioserver) empfangen.

Typischerweise kann Wi-Fi 6 theoretische Bandbreiten von mehreren Gigabit pro Sekunde erreichen, abhängig von den Geräten und den Umgebungsbedingungen. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

S/P-DIF (Sony/Philips Digital Interface)

S/P-DIF steht für „Sony/Philips Digital Interface“ und bezieht sich auf eine Schnittstelle zur Übertragung von digitalen Audiosignalen zwischen verschiedenen Geräten. Dieses Format wird oft verwendet, um digitale Audiosignale von Quellgeräten wie CD-Playern, DVD-Playern oder Computern an Empfänger wie Verstärker oder AV-Receiver zu übertragen. S/P-DIF kann über verschiedene physische Verbindungstypen übertragen werden, darunter koaxiale Kabel, optische Kabel und BNC-Anschlüsse.

Die Bandbreite von S/P-DIF beträgt in der Regel 2 Kanäle mit 16 oder 24 Bit pro Abtastung und Abtastraten von bis zu 192 kHz. Dies ergibt eine maximale theoretische Bandbreite von 6,144 Mbit/s für einen Stereokanal mit 24 Bit und 192 kHz.

Die Wahl des Masters und Slaves hängt von der Gerätekonfiguration ab. In einem typischen Szenario ist das Gerät, das das Audiosignal sendet, der Master, während das Gerät, das das Signal empfängt, der Slave ist. Der Master bestimmt die Taktquelle für die Übertragung. Die Datenübertragung wäre dann synchron.

Coaxial (Koaxial)

Die koaxiale Verbindung ist eine der Möglichkeiten, S/P-DIF-Signale zu übertragen. Hierbei handelt es sich um eine elektrische Verbindung, bei der das digitale Audiosignal über ein koaxiales Kabel mit einem RCA-Stecker (Cinch) übertragen wird.

Koaxialkabel haben einen zentralen Leiter, der von einem Isolator umgeben ist. Um den Isolator herum befindet sich ein metallisches Geflecht (Schirmung), das wiederum von einer äußeren Isolationsschicht umgeben ist. Koaxialkabel haben eine bestimmte Impedanz, die in Ohm gemessen wird. Die Impedanz ist wichtig, um eine effiziente Signalübertragung zu gewährleisten und Reflexionen von Signalen zu minimieren. Die beiden häufigsten Impedanzwerte für Koaxialkabel sind 50 Ohm und 75 Ohm, die Kabelhersteller manchmal nicht einhalten. Koaxialverbindungen gelten als besonders empfindlich.

BNC (Bayonet Neill-Concelman)

BNC ist ein Steckertyp, der häufig für die Übertragung von Hochfrequenzsignalen, einschließlich digitaler Audiosignale, verwendet wird. Er bietet eine sichere Verbindung und wird oft in professionellen Audio- und Videoanwendungen eingesetzt.

Optical TOS-Link (Toslink)

TOS-Link ist eine optische Verbindung für die Übertragung von digitalen Audiosignalen. Hierbei wird Licht durch ein optisches Kabel geschickt, um die Audiodaten zwischen den Geräten zu übertragen. Dieser Ansatz minimiert elektromagnetische Interferenzen und bietet eine saubere Signalübertragung.

AES-EBU (Audio Engineering Society – European Broadcasting Union)

AES-EBU bezeichnet einen Standard für die Übertragung von digitalen Audiosignalen über symmetrische XLR-Kabel. Diese Schnittstelle wird oft in professionellen Audioanwendungen verwendet und bietet eine höhere Störfestigkeit und bessere Signalqualität im Vergleich zu S/P-DIF.

Die Bandbreite hängt von der Auflösung (Bit-Tiefe) und der Abtastrate ab. Typischerweise kann AES-EBU eine Bandbreite von bis zu 192 kHz bei 24 Bit bieten.

Im Gegensatz zu S/PDIF ist AES/EBU oft für die synchrone Datenübertragung ausgelegt, was bedeutet, dass die Taktinformationen in den Datenstrom integriert sind, um eine präzise Synchronisation zwischen Sender und Empfänger sicherzustellen.

I²S (Inter-IC Sound)

Die I²S-Schnittstelle wurde von Philips für serielle digitale Audiodaten bei der Kommunikation zwischen ICs entwickelt. Die I²S-Schnittstelle wird typischerweise zur Übertragung digitaler Audiodaten im DAC verwendet. Zum Beispiel empfängt der USB-Audioprozessor im DAC die Daten und überträgt diese an die interne I²S-Schnittstelle. Die Schnittstelle besteht aus drei Signalleitungen, der Takt- (SCK), Daten- (SD) und der Word-Select-Leitung (WS). 

Manche DAC-Hersteller bieten einen I²S Input an. Bei der Belegung gibt es leider keine Standards! Oft werden HDMI- oder RJ-45 LAN-Anschlüsse verwendet. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

Eine wesentliche Eigenschaft ist, dass diese Schnittstelle synchron ist. Dabei kann sowohl die Quelle, als auch der Empfänger den Takt erzeugen. Durch die vorhandenen Steuerleitungen wird auch die genaue zeitliche Ausrichtung der einzelnen abgetasteten Audiowerte festgelegt.

Bewertung heutiger Audio Übertragungs-Standards

Hier kommt es auf dein Zielbild an. Wenn du zum Beispiel gern Upsampling im Audio PC mit Roon oder dem HQPlayer machst, dann sind USB, LAN, WLAN oder I²S die erste Wahl. Bei den anderen Schnittstellen könnte die Bandbreite nicht ausreichen.

DSD wirst du bei S/P-DIF und AES-EBU nicht hören können, weil diese Schnittstellen nur PCM akzeptieren.

Grundsätzlich ist die asynchrone Datenübertragung robuster, weil aus dem Puffer die Daten wieder neu getaktet werden. Die asynchronen Schnittstellen sind USB (Besonderheit Isochron), LAN oder WLAN. S/P-DIF und AES-EBU übertragen in der Regel synchron. I²S-Schnittstellen übertragen das Taktsignal synchron auf einer eigenen Steuerleitung, während die Audiosignale auf anderen Leitungen übertragen werden. Deshalb sollen I²S-Kabel besonders kurz sein, weil sonst die Taktsignale verschmieren.

Wer eine galvanische Trennung möchte, kann TOS-Link, WLAN oder LAN mit LWL (Lichtwellenleiter) verwenden, wobei diese Übertragungsarten bei der Umwandlung in leitungsbasierte elektrische Signale selbst Störungen produzieren können.

Egal für welche Schnittstelle du dich entscheidest: für die Datenübertragung in den DAC soll in jedem Fall eine rauscharme Umsetzung erfolgen. Die von uns angebotenen PCIe Karten für USB und LAN können mit einer externen linearen Stromversorgung kombiniert werden.

Auch hilft ein Reclocking bei der Digital-Analog-Wandlung. Gute Clocks sind sehr teuer, bewirken aber sehr viel. Siehe: Neue Thesen zum Reclocking.

Es gibt also nicht „den“ ultimativen Übertragungsstandard, sondern jede Schnittstelle hat ihre Stärken und Schwächen.

Zusammenfassung

Bei der Auswahl der Datenübertragungsschnittstelle hast du die Qual der Wahl. Erstelle dir vor der Entscheidung ein Anforderungsprofil:

  • Welche Schnittstellen bietet dein DAC an?
  • Welche Datenübertragungsformate (PCM/DSD) willst du nutzen?
  • Welche Bandbreite (PCM bis 1536kHz/32Bit oder bis DSD1024) wird benötigt?
  • Soll ein Reclocking des Signals erfolgen?
  • Ist eine rauscharme Datenübertragung wichtig?

Gehe die einzelnen Kriterien durch und die Auswahl wird einfacher.

*ChatGPT hat mir beim Schreiben geholfen.