Die Taktung bei der Datenübertragung
Synchrone Audiodatenübertragung
Bei der synchronen Übertragung werden Daten in einem festen Zeitintervall übertragen. Dies bedeutet, dass das Sender- und Empfängergerät zuvor synchronisiert werden müssen, damit die Daten korrekt empfangen werden können. Synchrone Übertragungen sind in der Regel sehr genau und eignen sich gut für Echtzeitanwendungen, bei denen ein konstantes Timing erforderlich ist, wie zum Beispiel bei Telefonanrufen.
Einer der größten Nachteile der synchronen Audiodatenübertragung ist die potenzielle Latenzzeit oder Verzögerung. Wenn die Übertragung nicht in Echtzeit erfolgt, kann dies dazu führen, dass Audioverzögerungen auftreten. Dies ist besonders problematisch in Anwendungen wie Echtzeit-Audioverarbeitung, Musikproduktion oder Videokonferenzen, wo eine geringe Latenzzeit entscheidend ist. Jitter bezieht sich auf unregelmäßige Schwankungen in der Ankunftszeit von Datenpaketen. Dies kann bei synchronen Übertragungen auftreten und zu Störungen im empfangenen Audiosignal führen. Jitter kann die Klangqualität beeinträchtigen und erschwert die Synchronisierung von Audioströmen.
Asynchrone Audiodatenübertragung
Bei der asynchronen Übertragung werden Daten ohne ein striktes Timing übertragen. Dies bedeutet, dass Sender und Empfänger nicht in einem festen Rhythmus agieren müssen. Asynchrone Übertragungen sind flexibler und können variable Wartezeiten zwischen den Datenübertragungen aufweisen.
Ein Beispiel für asynchrone Audiodatenübertragung ist die Verwendung von Dateiübertragungen über das Internet. Hier werden Audiodateien ohne regelmäßige Intervalle übertragen. Die Übertragung kann je nach Netzwerkbedingungen variieren, und es können Puffer verwendet werden, um Schwankungen in der Übertragungsgeschwindigkeit auszugleichen.
Der Empfänger taktet die Daten neu aus dem Puffer. Deshalb wird bei der asynchronen Datenübertragung häufig argumentiert, dass Jitter keine Rolle spielt. Dieser Meinung bin ich nicht, weil ein Reclocking deutliche Klangsteigerungen bringen kann. Siehe auch der Newsletter: Neue Thesen zum Reclocking.
Fehlerhafte Datenpakete werden über CRC-Prüfsummen erkannt und korrigiert. Reicht die Zeit dafür nicht mehr aus, kommt es zu Drop Outs.
Isochrone Audiodatenübertragung
Der isochrone Transfer ist für Daten geeignet, die eine konstante Datenrate benötigen. Der Unterschied zur asynchronen Übertragung liegt in einem Signal mit konstanten Intervallen. Der zeitliche Abstand zwischen zwei übertragenen Frames ist stets gleich groß.
Bei USB ist die Übertragung mit einer CRC-Prüfsumme gesichert, wird aber bei einem Übertragungsfehler durch die Hardware nicht wiederholt. Daher kommt es bei fehlerhaften Datenübertragungen zum Knistern wie von einer Schallplatte. Isochrone Übertragungen werden zum Beispiel von der USB-Audio-Class benutzt, die bei externen USB-Soundkarten Verwendung findet.
Die Schnittstellen bei der Datenübertragung
USB (Universal Serial Bus)
USB-Anschlüsse werden häufig verwendet, um Audioinformationen zwischen Computern, digitalen Audiogeräten und Peripheriegeräten zu übertragen. Ein USB-Anschluss kann dazu verwendet werden, digitale Audiosignale von einem Computer an externe USB-DACs (Digital-Analog-Wandler) oder andere Audiogeräte zu senden.
Die erforderliche Datenrate ergibt sich aus dem Produkt des Abfrageintervalls und der Größe des Datenpuffers. Hi-Speed-Geräte können bis zu drei Übertragungen je Micro-Frame (125 µs) mit bis zu 1024 Byte ausführen (24.576 kB/s). USB 2.0 bietet eine maximale theoretische Bandbreite von 480 Mbit/s. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.
Bei USB-DACs (Digital-Analog-Wandler) ist die Datenübertragung isochron. Hierbei bestimmt der DAC die Taktrate und fordert Daten vom Quellgerät an.
LAN (Local Area Network)
Ein LAN ist ein Netzwerk, das Geräte in einem festgelegten Bereich miteinander verbindet. In Bezug auf Audio kann ein LAN verwendet werden, um Audiodaten zwischen verschiedenen Computern, Audiogeräten und Medienservern zu übertragen. Streaming von Audio über ein LAN ermöglicht es, Musik oder andere Audiodaten von einem zentralen Server oder einer Quelle an verschiedene Abspielgeräte im Netzwerk zu senden.
Bei herkömmlichen Gigabit-Ethernet-Verbindungen beträgt die Bandbreite bis 1 Gbit/s. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.
In Ethernet-Netzwerken erfolgt die Datenübertragung asynchron unter Verwendung der Empfängeruhren (Receiver Clocks). In einem Ethernet-Framesignal sind normalerweise Taktinformationen enthalten, die der Empfänger verwenden kann, um die Datenbits zu synchronisieren und sie korrekt zu interpretieren.
WLAN (Wireless Local Area Network)
WLAN bezieht sich auf drahtlose Netzwerke, die auf Funktechnologien basieren und Geräte über kurze Entfernungen miteinander verbinden. WLAN wird oft verwendet, um drahtlosen Internetzugang bereitzustellen, kann aber auch für drahtlose Audioübertragungen genutzt werden. Mit WLAN können drahtlose Audiogeräte, wie Lautsprecher oder Kopfhörer, Audiosignale von einem Sender (z. B. einem Smartphone, Computer oder einem zentralen Audioserver) empfangen.
Typischerweise kann Wi-Fi 6 theoretische Bandbreiten von mehreren Gigabit pro Sekunde erreichen, abhängig von den Geräten und den Umgebungsbedingungen. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.
S/P-DIF (Sony/Philips Digital Interface)
S/P-DIF steht für „Sony/Philips Digital Interface“ und bezieht sich auf eine Schnittstelle zur Übertragung von digitalen Audiosignalen zwischen verschiedenen Geräten. Dieses Format wird oft verwendet, um digitale Audiosignale von Quellgeräten wie CD-Playern, DVD-Playern oder Computern an Empfänger wie Verstärker oder AV-Receiver zu übertragen. S/P-DIF kann über verschiedene physische Verbindungstypen übertragen werden, darunter koaxiale Kabel, optische Kabel und BNC-Anschlüsse.
Die Bandbreite von S/P-DIF beträgt in der Regel 2 Kanäle mit 16 oder 24 Bit pro Abtastung und Abtastraten von bis zu 192 kHz. Dies ergibt eine maximale theoretische Bandbreite von 6,144 Mbit/s für einen Stereokanal mit 24 Bit und 192 kHz.
Die Wahl des Masters und Slaves hängt von der Gerätekonfiguration ab. In einem typischen Szenario ist das Gerät, das das Audiosignal sendet, der Master, während das Gerät, das das Signal empfängt, der Slave ist. Der Master bestimmt die Taktquelle für die Übertragung. Die Datenübertragung wäre dann synchron.
Coaxial (Koaxial)
Die koaxiale Verbindung ist eine der Möglichkeiten, S/P-DIF-Signale zu übertragen. Hierbei handelt es sich um eine elektrische Verbindung, bei der das digitale Audiosignal über ein koaxiales Kabel mit einem RCA-Stecker (Cinch) übertragen wird.
Koaxialkabel haben einen zentralen Leiter, der von einem Isolator umgeben ist. Um den Isolator herum befindet sich ein metallisches Geflecht (Schirmung), das wiederum von einer äußeren Isolationsschicht umgeben ist. Koaxialkabel haben eine bestimmte Impedanz, die in Ohm gemessen wird. Die Impedanz ist wichtig, um eine effiziente Signalübertragung zu gewährleisten und Reflexionen von Signalen zu minimieren. Die beiden häufigsten Impedanzwerte für Koaxialkabel sind 50 Ohm und 75 Ohm, die Kabelhersteller manchmal nicht einhalten. Koaxialverbindungen gelten als besonders empfindlich.
BNC (Bayonet Neill-Concelman)
BNC ist ein Steckertyp, der häufig für die Übertragung von Hochfrequenzsignalen, einschließlich digitaler Audiosignale, verwendet wird. Er bietet eine sichere Verbindung und wird oft in professionellen Audio- und Videoanwendungen eingesetzt.
Optical TOS-Link (Toslink)
TOS-Link ist eine optische Verbindung für die Übertragung von digitalen Audiosignalen. Hierbei wird Licht durch ein optisches Kabel geschickt, um die Audiodaten zwischen den Geräten zu übertragen. Dieser Ansatz minimiert elektromagnetische Interferenzen und bietet eine saubere Signalübertragung.
AES-EBU (Audio Engineering Society – European Broadcasting Union)
AES-EBU bezeichnet einen Standard für die Übertragung von digitalen Audiosignalen über symmetrische XLR-Kabel. Diese Schnittstelle wird oft in professionellen Audioanwendungen verwendet und bietet eine höhere Störfestigkeit und bessere Signalqualität im Vergleich zu S/P-DIF.
Die Bandbreite hängt von der Auflösung (Bit-Tiefe) und der Abtastrate ab. Typischerweise kann AES-EBU eine Bandbreite von bis zu 192 kHz bei 24 Bit bieten.
Im Gegensatz zu S/PDIF ist AES/EBU oft für die synchrone Datenübertragung ausgelegt, was bedeutet, dass die Taktinformationen in den Datenstrom integriert sind, um eine präzise Synchronisation zwischen Sender und Empfänger sicherzustellen.
I²S (Inter-IC Sound)
Die I²S-Schnittstelle wurde von Philips für serielle digitale Audiodaten bei der Kommunikation zwischen ICs entwickelt. Die I²S-Schnittstelle wird typischerweise zur Übertragung digitaler Audiodaten im DAC verwendet. Zum Beispiel empfängt der USB-Audioprozessor im DAC die Daten und überträgt diese an die interne I²S-Schnittstelle. Die Schnittstelle besteht aus drei Signalleitungen, der Takt- (SCK), Daten- (SD) und der Word-Select-Leitung (WS).
Manche DAC-Hersteller bieten einen I²S Input an. Bei der Belegung gibt es leider keine Standards! Oft werden HDMI- oder RJ-45 LAN-Anschlüsse verwendet. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.
Eine wesentliche Eigenschaft ist, dass diese Schnittstelle synchron ist. Dabei kann sowohl die Quelle, als auch der Empfänger den Takt erzeugen. Durch die vorhandenen Steuerleitungen wird auch die genaue zeitliche Ausrichtung der einzelnen abgetasteten Audiowerte festgelegt.