Veröffentlicht am Ein Kommentar

Welche neuen Datenübertragungsstandards sind für Audio im Gespräch?

Einleitung

Im Computerzeitalter der digitalen Datenübertragungen gibt es viele Möglichkeiten die Musikfiles zu transportieren. Das gelingt leider nicht immer störungsfrei. Manchmal ist die Bandbreite nicht ausreichend. Oder das elektrische Rauschen dringt bis zum DAC durch.

Mit diesem Newsletter möchte ich einen kurzen Überblick der heute gängigen Verfahren geben, aber vor allem den Blick auf die Zukunft richten.

Aktuelle Standards für den Audio Datentransport*

Die Taktung bei der Datenübertragung

Synchrone Audiodatenübertragung

Bei der synchronen Übertragung werden Daten in einem festen Zeitintervall übertragen. Dies bedeutet, dass das Sender- und Empfängergerät zuvor synchronisiert werden müssen, damit die Daten korrekt empfangen werden können. Synchrone Übertragungen sind in der Regel sehr genau und eignen sich gut für Echtzeitanwendungen, bei denen ein konstantes Timing erforderlich ist, wie zum Beispiel bei Telefonanrufen.

Einer der größten Nachteile der synchronen Audiodatenübertragung ist die potenzielle Latenzzeit oder Verzögerung. Wenn die Übertragung nicht in Echtzeit erfolgt, kann dies dazu führen, dass Audioverzögerungen auftreten. Dies ist besonders problematisch in Anwendungen wie Echtzeit-Audioverarbeitung, Musikproduktion oder Videokonferenzen, wo eine geringe Latenzzeit entscheidend ist. Jitter bezieht sich auf unregelmäßige Schwankungen in der Ankunftszeit von Datenpaketen. Dies kann bei synchronen Übertragungen auftreten und zu Störungen im empfangenen Audiosignal führen. Jitter kann die Klangqualität beeinträchtigen und erschwert die Synchronisierung von Audioströmen.

Asynchrone Audiodatenübertragung

Bei der asynchronen Übertragung werden Daten ohne ein striktes Timing übertragen. Dies bedeutet, dass Sender und Empfänger nicht in einem festen Rhythmus agieren müssen. Asynchrone Übertragungen sind flexibler und können variable Wartezeiten zwischen den Datenübertragungen aufweisen.

Ein Beispiel für asynchrone Audiodatenübertragung ist die Verwendung von Dateiübertragungen über das Internet. Hier werden Audiodateien ohne regelmäßige Intervalle übertragen. Die Übertragung kann je nach Netzwerkbedingungen variieren, und es können Puffer verwendet werden, um Schwankungen in der Übertragungsgeschwindigkeit auszugleichen.

Der Empfänger taktet die Daten neu aus dem Puffer. Deshalb wird bei der asynchronen Datenübertragung häufig argumentiert, dass Jitter keine Rolle spielt. Dieser Meinung bin ich nicht, weil ein Reclocking deutliche Klangsteigerungen bringen kann. Siehe auch der Newsletter: Neue Thesen zum Reclocking.

Fehlerhafte Datenpakete werden über CRC-Prüfsummen erkannt und korrigiert. Reicht die Zeit dafür nicht mehr aus, kommt es zu Drop Outs.

Isochrone Audiodatenübertragung

Der isochrone Transfer ist für Daten geeignet, die eine konstante Datenrate benötigen. Der Unterschied zur asynchronen Übertragung liegt in einem Signal mit konstanten Intervallen. Der zeitliche Abstand zwischen zwei übertragenen Frames ist stets gleich groß.

Bei USB ist die Übertragung mit einer CRC-Prüfsumme gesichert, wird aber bei einem Übertragungsfehler durch die Hardware nicht wiederholt. Daher kommt es bei fehlerhaften Datenübertragungen zum Knistern wie von einer Schallplatte. Isochrone Übertragungen werden zum Beispiel von der USB-Audio-Class benutzt, die bei externen USB-Soundkarten Verwendung findet.

Die Schnittstellen bei der Datenübertragung

USB (Universal Serial Bus)

USB-Anschlüsse werden häufig verwendet, um Audioinformationen zwischen Computern, digitalen Audiogeräten und Peripheriegeräten zu übertragen. Ein USB-Anschluss kann dazu verwendet werden, digitale Audiosignale von einem Computer an externe USB-DACs (Digital-Analog-Wandler) oder andere Audiogeräte zu senden.

Die erforderliche Datenrate ergibt sich aus dem Produkt des Abfrageintervalls und der Größe des Datenpuffers. Hi-Speed-Geräte können bis zu drei Übertragungen je Micro-Frame (125 µs) mit bis zu 1024 Byte ausführen (24.576 kB/s). USB 2.0 bietet eine maximale theoretische Bandbreite von 480 Mbit/s. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

Bei USB-DACs (Digital-Analog-Wandler) ist die Datenübertragung isochron. Hierbei bestimmt der DAC die Taktrate und fordert Daten vom Quellgerät an.

LAN (Local Area Network)

Ein LAN ist ein Netzwerk, das Geräte in einem festgelegten Bereich miteinander verbindet. In Bezug auf Audio kann ein LAN verwendet werden, um Audiodaten zwischen verschiedenen Computern, Audiogeräten und Medienservern zu übertragen. Streaming von Audio über ein LAN ermöglicht es, Musik oder andere Audiodaten von einem zentralen Server oder einer Quelle an verschiedene Abspielgeräte im Netzwerk zu senden.

Bei herkömmlichen Gigabit-Ethernet-Verbindungen beträgt die Bandbreite bis 1 Gbit/s. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

In Ethernet-Netzwerken erfolgt die Datenübertragung asynchron unter Verwendung der Empfängeruhren (Receiver Clocks). In einem Ethernet-Framesignal sind normalerweise Taktinformationen enthalten, die der Empfänger verwenden kann, um die Datenbits zu synchronisieren und sie korrekt zu interpretieren.

WLAN (Wireless Local Area Network)

WLAN bezieht sich auf drahtlose Netzwerke, die auf Funktechnologien basieren und Geräte über kurze Entfernungen miteinander verbinden. WLAN wird oft verwendet, um drahtlosen Internetzugang bereitzustellen, kann aber auch für drahtlose Audioübertragungen genutzt werden. Mit WLAN können drahtlose Audiogeräte, wie Lautsprecher oder Kopfhörer, Audiosignale von einem Sender (z. B. einem Smartphone, Computer oder einem zentralen Audioserver) empfangen.

Typischerweise kann Wi-Fi 6 theoretische Bandbreiten von mehreren Gigabit pro Sekunde erreichen, abhängig von den Geräten und den Umgebungsbedingungen. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

S/P-DIF (Sony/Philips Digital Interface)

S/P-DIF steht für „Sony/Philips Digital Interface“ und bezieht sich auf eine Schnittstelle zur Übertragung von digitalen Audiosignalen zwischen verschiedenen Geräten. Dieses Format wird oft verwendet, um digitale Audiosignale von Quellgeräten wie CD-Playern, DVD-Playern oder Computern an Empfänger wie Verstärker oder AV-Receiver zu übertragen. S/P-DIF kann über verschiedene physische Verbindungstypen übertragen werden, darunter koaxiale Kabel, optische Kabel und BNC-Anschlüsse.

Die Bandbreite von S/P-DIF beträgt in der Regel 2 Kanäle mit 16 oder 24 Bit pro Abtastung und Abtastraten von bis zu 192 kHz. Dies ergibt eine maximale theoretische Bandbreite von 6,144 Mbit/s für einen Stereokanal mit 24 Bit und 192 kHz.

Die Wahl des Masters und Slaves hängt von der Gerätekonfiguration ab. In einem typischen Szenario ist das Gerät, das das Audiosignal sendet, der Master, während das Gerät, das das Signal empfängt, der Slave ist. Der Master bestimmt die Taktquelle für die Übertragung. Die Datenübertragung wäre dann synchron.

Coaxial (Koaxial)

Die koaxiale Verbindung ist eine der Möglichkeiten, S/P-DIF-Signale zu übertragen. Hierbei handelt es sich um eine elektrische Verbindung, bei der das digitale Audiosignal über ein koaxiales Kabel mit einem RCA-Stecker (Cinch) übertragen wird.

Koaxialkabel haben einen zentralen Leiter, der von einem Isolator umgeben ist. Um den Isolator herum befindet sich ein metallisches Geflecht (Schirmung), das wiederum von einer äußeren Isolationsschicht umgeben ist. Koaxialkabel haben eine bestimmte Impedanz, die in Ohm gemessen wird. Die Impedanz ist wichtig, um eine effiziente Signalübertragung zu gewährleisten und Reflexionen von Signalen zu minimieren. Die beiden häufigsten Impedanzwerte für Koaxialkabel sind 50 Ohm und 75 Ohm, die Kabelhersteller manchmal nicht einhalten. Koaxialverbindungen gelten als besonders empfindlich.

BNC (Bayonet Neill-Concelman)

BNC ist ein Steckertyp, der häufig für die Übertragung von Hochfrequenzsignalen, einschließlich digitaler Audiosignale, verwendet wird. Er bietet eine sichere Verbindung und wird oft in professionellen Audio- und Videoanwendungen eingesetzt.

Optical TOS-Link (Toslink)

TOS-Link ist eine optische Verbindung für die Übertragung von digitalen Audiosignalen. Hierbei wird Licht durch ein optisches Kabel geschickt, um die Audiodaten zwischen den Geräten zu übertragen. Dieser Ansatz minimiert elektromagnetische Interferenzen und bietet eine saubere Signalübertragung.

AES-EBU (Audio Engineering Society – European Broadcasting Union)

AES-EBU bezeichnet einen Standard für die Übertragung von digitalen Audiosignalen über symmetrische XLR-Kabel. Diese Schnittstelle wird oft in professionellen Audioanwendungen verwendet und bietet eine höhere Störfestigkeit und bessere Signalqualität im Vergleich zu S/P-DIF.

Die Bandbreite hängt von der Auflösung (Bit-Tiefe) und der Abtastrate ab. Typischerweise kann AES-EBU eine Bandbreite von bis zu 192 kHz bei 24 Bit bieten.

Im Gegensatz zu S/PDIF ist AES/EBU oft für die synchrone Datenübertragung ausgelegt, was bedeutet, dass die Taktinformationen in den Datenstrom integriert sind, um eine präzise Synchronisation zwischen Sender und Empfänger sicherzustellen.

I²S (Inter-IC Sound)

Die I²S-Schnittstelle wurde von Philips für serielle digitale Audiodaten bei der Kommunikation zwischen ICs entwickelt. Die I²S-Schnittstelle wird typischerweise zur Übertragung digitaler Audiodaten im DAC verwendet. Zum Beispiel empfängt der USB-Audioprozessor im DAC die Daten und überträgt diese an die interne I²S-Schnittstelle. Die Schnittstelle besteht aus drei Signalleitungen, der Takt- (SCK), Daten- (SD) und der Word-Select-Leitung (WS). 

Manche DAC-Hersteller bieten einen I²S Input an. Bei der Belegung gibt es leider keine Standards! Oft werden HDMI- oder RJ-45 LAN-Anschlüsse verwendet. Die Abtastraten können je nach DAC (Digital-Analog-Wandler) bis zu PCM 1536 und DSD 1024 gehen.

Eine wesentliche Eigenschaft ist, dass diese Schnittstelle synchron ist. Dabei kann sowohl die Quelle, als auch der Empfänger den Takt erzeugen. Durch die vorhandenen Steuerleitungen wird auch die genaue zeitliche Ausrichtung der einzelnen abgetasteten Audiowerte festgelegt.

Bewertung heutiger Audio Übertragungs-Standards

Hier kommt es auf dein Zielbild an. Wenn du zum Beispiel gern Upsampling im Audio PC mit Roon oder dem HQPlayer machst, dann sind USB, LAN, WLAN oder I²S die erste Wahl. Bei den anderen Schnittstellen könnte die Bandbreite nicht ausreichen.

DSD wirst du bei S/P-DIF und AES-EBU nicht hören können, weil diese Schnittstellen nur PCM akzeptieren.

Grundsätzlich ist die asynchrone Datenübertragung robuster, weil aus dem Puffer die Daten wieder neu getaktet werden. Die asynchronen Schnittstellen sind USB (Besonderheit Isochron), LAN oder WLAN. S/P-DIF und AES-EBU übertragen in der Regel synchron. I²S-Schnittstellen übertragen das Taktsignal synchron auf einer eigenen Steuerleitung, während die Audiosignale auf anderen Leitungen übertragen werden. Deshalb sollen I²S-Kabel besonders kurz sein, weil sonst die Taktsignale verschmieren.

Wer eine galvanische Trennung möchte, kann TOS-Link, WLAN oder LAN mit LWL (Lichtwellenleiter) verwenden, wobei diese Übertragungsarten bei der Umwandlung in leitungsbasierte elektrische Signale selbst Störungen produzieren können.

Es gibt also nicht „den“ ultimativen Übertragungsstandard, sondern jede Schnittstelle hat ihre Stärken und Schwächen. Deshalb sind die Audio Industrie und auch der Audiophile nicht wirklich zufrieden und forschen weiter. Womit wir zum eigentlichen Thema kommen: Was gibt es neues bei der Audiodatenübertragung?

Neue Standards für den Audio Datentransport

Allgemeine Ziele

Eines der großen Probleme ist das elektrische Rauschen, welches verringert werden soll. Die Hauptursache ist die thermische Bewegung von Elektronen in einem elektrischen Leiter. Diese thermische Bewegung erzeugt kleine, zufällige Spannungs- und Stromschwankungen, die als thermisches Rauschen bezeichnet werden. Dieses Rauschen tritt unabhängig von äußeren Einflüssen auf und ist ein inhärenter Aspekt elektrischer Systeme.

Weniger Jitter und Biterrors sind ebenfalls willkommene Ziele.

Geringe Bandbreite vs. hohe Bandbreite

100 MBit/s

Bisher versuchte man durch eine geringere Bandbreite (bei LAN z. B. 100 MBit/s) des Rauschen zu minimieren. Es gibt andere Meinungen dazu, dass eine geringe Bandbreite zu unregelmäßigen hohen Datenbursts führt. In der amerikanischen audiophilen Szene hat sich aus mehreren Gründen die Bevorzugung einer hoher Bandbreite durchgesetzt.

Ungeachtet dessen ist normalerweise eine Bandbreite von 100 MBit/s ausreichend. Bei einer CD sind es 1,41 MBit/s (44.100 Abtastrate x 16 Bit x 2 Kanäle = 1.411.200 Bits). Bei DSD1024 ist die Bandbreite jedoch am Limit: 90,32 MBit/s (44.100 x 1 Bit x 1024 x 2 Kanäle = 90.316.800 Bits). Da auch noch andere Daten (z. B. Steuerdaten) über die Leitung fließen, muss bei DSD1024 eine 1 Gigabit Leitung genutzt werden.

Der EtherREGEN Switch – UpTone Audio hat auf der B-Seite einen LAN-Port mit 100 MBit/s. Die meisten Nutzer vermuteten eine Absicht zur Verminderung des elektrischen Rauschens dahinter. UpTone Audio verneinte dies und verwies auf die damals mangelnde Teileverfügbarkeit, siehe Optical Network Configurations – Audiophilestyle.com. Der kommende EtherREGEN Gen2 wird dagegen auf beiden Seiten (A und B) 1 Gigabit haben.

1 GBit/s und 10 GBit/s

Aber es geht noch weiter. Und zwar von 1 GBit/s auf 10 GBit/s. Der Entwickler von UpTone Audio John Swenson verweist hier auf die besseren technischen Spezifikationen von SFP+ (Small Form-Factor Pluggable Plus) Transceivern, siehe Optical Network Configurations – Audiophilestyle.com. Geringerer Jitter und mutmaßlich weniger Rauschen wird eben auch erreicht, wenn diese 10G Transceiver nur mit 1G arbeiten!

Hier haben wir mit unserem XILINX (Solarflare) XtremeScale X2522 Glasfaser Kit, welches sogar bis zu 25 GBit/s ermöglicht, beste Erfahrungen gesammelt.

USB4

Erste Diskussionen finden in audiophilen Kreisen zum Thema USB4 statt, siehe Building a DIY Music Server – Audiophilestyle.com. USB4 ist die vierte Generation des Universal Serial Bus (USB) -Standards, der entwickelt wurde, um eine schnellere Datenübertragung und eine verbesserte Konnektivität zwischen verschiedenen Geräten zu ermöglichen.

USB4 bietet deutlich höhere Datenübertragungsraten im Vergleich zu früheren Versionen. Es unterstützt eine maximale theoretische Datenrate von bis zu 40 Gbit/s, was eine doppelte Steigerung gegenüber USB 3.2 Gen 2×2 (20 Gbit/s) darstellt.

USB 4 2.0 bietet sogar bis zu 80 Gbit/s oder asymmetrisch mit bis zu 120 Gbit/s in eine Richtung bei noch 40 Gbit/s in die andere Richtung.

Quelle: USB4 2.0: USB-Schnittstelle bekommt ein Update auf 80 Gbit/s – ComputerBase

Der Windows USB4-Verbindungs-Manager unterstützt das Ethernet-über-USB4-Interdomain-Protokoll, das auch als USB4NET bezeichnet wird. Auf diese Weise können zwei USB4-PCs eine Netzwerkverbindung untereinander herstellen, wenn sie mit einem USB4-Kabel verbunden sind, ähnlich wie beim Anschließen eines Ethernet-Kabels zwischen Netzwerkkarten auf zwei PCs. 

Es liegen jedoch noch keine Erfahrungen zur Audio Datenübertragung mit USB4 vor, zumal es bisher keinen DAC mit dieser Schnittstelle gibt.

kleinere Datenpakete / mehr Intervalle vs. große Datenpakete / weniger Intervalle

USB und LAN Puffereinstellungen

Im letzten Newsletter habe ich Tipps zu den Puffereinstellungen von USB und des Netzwerkadapters gegeben. Siehe: Wie stellst du die Datenpuffer bei USB und LAN richtig ein?

Die Botschaft war den geringstmöglichen funktionierenden Puffer einzustellen, da kleinere Datenpakete mit mehr Intervallen die Latenzen und Jitter, Packet loss und mutmaßlich das elektrische Rauschen vermindern.

TACD (Taiko Audio CPU Direct)

HIer kommen wir zu einer Innovation von Taiko Audio. Es wird eine neue PCIe-Card mit der Bezeichnung TACD (Taiko Audio CPU Direct) entwickelt. Diese Karte wird es meines Wissens nur für Taiko Audio Kunden geben, aber gewisse Informationen machen neugierig.

Bitte beachte, dass es sich um einen vorläufigen Informationsstand handelt und eventuell nicht alles so von Taiko Audio umgesetzt wird.

Auf der Downloadseite von Taiko Audio sind unter TACDA DAC & TACDD Interface Product Summary Beschreibungen verfügbar. Im What’s Best Forum hat der Geschäftsführer von Taiko Audio (Emile Bok) folgendes geschrieben (Auszug übersetzt):

Wir eliminieren „lediglich“ USB als Schnittstelle, da wir jetzt auf Einschränkungen dieser Schnittstelle stoßen. Es handelt sich also eher um eine Weiterentwicklung von USB-Audio.

Was derzeit passiert, ist folgendes (vereinfacht):

CPU-/Speicherdaten -> werden in USB-Datenblöcke übersetzt -> von einem USB-Sender ausgegeben -> über ein USB-Kabel transportiert -> von einem USB-Empfänger empfangen -> von einem USB-Audioprozessor im DAC in I²S umgewandelt

Was sich ändert, ist das:

CPU-/Speicherdaten -> werden unverändert über unsere Verbindung transportiert > von unserem Audioprozessor im DAC empfangen und in I²S umgewandelt

Die Einschränkungen, auf die wir bei USB-Audio stoßen, sind folgende:

USB sendet Datenpakete in einem Intervall von 125 Mikrosekunden, was einer Übertragungsrate von 8 kHz entspricht.

Im Extremfall sind wir mit all seiner Rechenleistung und unserem benutzerdefinierten USB-Treiber, der zu einer Einschränkung geworden ist, in der Lage, Daten in viel kleineren Intervallen zu senden, z. B. zwischen 500 und 1000 Mal kleiner. Warum ist das wichtig? Jedes Datenpaket erzeugt Rauschen, wenn es verarbeitet wird, so dass wir Rauschspitzen in Intervallen von 125 Mikrosekunden (bei 8 kHz) haben, Sie können dies tatsächlich deutlich hören, wenn Sie ein ungeschirmtes USB-Kabel in der Nähe von (ungeschirmten) Röhren verlegen. Wenn Sie dieses Intervall viel kleiner machen, einen kontinuierlichen Datenstrom mit einer sehr hohen Frequenz erzeugen, weit außerhalb des Audiobereichs, verwandelt er sich im Grunde in ein kontinuierliches Rauschen mit niedrigem Pegel bei sehr hohen Frequenzen, das leicht herausgefiltert werden kann. Und wir eliminieren 2 relativ laute USB-Controller. Die größten hörbaren Vorteile sind ein viel besserer Fluss in der Musikwiedergabe, viel schwärzere Hintergründe mit all den damit verbundenen Vorteilen, ein viel weicherer und weniger „abgehackter“ Klang, der sich vor allem in den oberen Mitten und hohen Frequenzen bemerkbar macht.

Taiko Audio SGM Extreme : the Crème de la Crème – What’s Best Forum

Hier sind die ersten Erfahrungswerte von Emile Bok (Auszug übersetzt):

 Ich führe derzeit 16-Bit-Aufnahmen etwa 250-mal „schneller“ aus (kleinere Datenpakete / Intervalle zwischen den Paketen) als USB (aufgrund seines 125uS-Paketintervalls) und arbeite etwa 1250-mal schneller.

… es klingt einfach expansiver, mit besserem Fluss, weniger kantig und ganz sicher weniger von allem, was die Leute mit „digitalem Sound“ assoziieren. 

Taiko Audio SGM Extreme : the Crème de la Crème – What’s Best Forum

Diese Lösung bedeutet, dass auch die DAC Hersteller den neuen Taiko Audioprozessor verbauen müssen. Solche Kooperationen gibt es auch in anders gelagerten Fällen. Zum Beispiel bei T+A, die im SDV 3100 HV den NAA (Netzwerk-Audio-Adapter) vom HQPlayer implementiert haben.

Alternativ wird voraussichtlich TACDA DAC + mit einem integrierten DAC (768 kHz, 24 Bit) und zwei RCA (Cinch) Ausgängen angeboten.

Meine Meinung zu TACD

Taiko Audio wird seinem Ruf als innovatives Unternehmen wieder gerecht. Emile Bok hat einen wichtigen Aspekt der Datenübertragung neu in den Fokus gerückt. Das es nämlich besser ist den Audiodatentransfer in sehr kleinen Paketen mit sehr vielen Intervallen (hohe Frequenzen) zur Rauschreduzierung durchzuführen.

Ob es dazu eines neuen Übertragungsstandards bedarf kann man kritisch hinterfragen. Denn die Möglichkeit kleine Datenpakete in hoher Frequenz zu versenden besteht ja heute schon. Und zwar mit LAN. Der Netzwerkkartenadapter ermöglicht dies durch die Einstellung des Puffers: je kleiner dieser ist, desto kleiner werden die Datenpakete. Cat6 mit 1G arbeitet mit einer sehr hohen Übertragungsfrequenz von bis zu 250MHz! Siehe unsere Grundlagen zum Audio PC Netzwerk.

Dazu dann die passende Netzwerkkarte wie XILINX (Solarflare) XtremeScale X2522 Network Adapter mit geringsten Latenzen und Jitter und dem guten Klang steht nichts mehr im Wege.

Bei USB können die Datenpakete durch die Puffereinstellungen ebenfalls verkleinert werden. Freilich bleibt die Frequenz wegen des 125uS-Paketintervalls bei 8kHz gleich. Bei dieser Verbindungsart kann TACD in der Tat eine Menge bringen. Andererseits kann USB4 eventuell auch dieses Problem lösen.

Was mir bei TACD nicht gefällt ist der proprietäre Lösungsansatz von Taiko Audio. Wer es nutzen will, wird wohl oder übel in den Taiko Audio Kosmos eintreten müssen. Der fis Audio PC vertritt eine andere Philosophie: die verwendete Hardware und die angebotene Software sind für jeden auf dem Markt frei erhältlich! Die genutzten Standards sind weltweit üblich und können jederzeit erneuert oder ausgetauscht werden.

Überblick über die neuen Trends

Zusammenfassung

Die heutigen digitalen Schnittstellen sind sehr vielfältig und haben ihre Stärken und Schwächen. In amerikanischen Foren hat sich die Erkenntnis mehrheitlich durchgesetzt, dass Schnittstellen mit hohen Bandbreiten wie 10G aufgrund besserer technischer Spezifikationen den Klang steigern. Auch wenn nur 1G genutzt wird. USB4 steckt für Audio noch in den Kinderschuhen

Kleinere Puffer in den USB- und LAN-Treibern reduzieren unter anderem das elektrische Rauschen. Diesen Punkt greift Taiko Audio mit seiner neuen Schnittstelle TACD (Taiko Audio CPU Direct) auf. Wird das Intervall viel kleiner gemacht, wird ein linearer Datenstrom mit einer sehr hohen Frequenz weit außerhalb des Audiobereichs erzeugt. Das bedeutet ein kontinuierliches Rauschen mit niedrigem Pegel bei sehr hohen Frequenzen.

TACD ist noch in der Entwicklung und wird nicht jeder nutzen können, weil es den passenden Taiko Server und DAC voraussetzt. Aber du kannst bereits heute von diesen neuen Erkenntnissen profitieren. Besorge dir PCIe-Karten mit 10G LAN wie zum Beispiel den  XILINX (Solarflare) XtremeScale X2522 Network Adapter oder USB Karten mit eigener (linearer) Stromversorgung und hochwertiger Clock zum Beispiel von JCAT. Stelle diese Schnittstellen auf den geringsmöglichen funktionierenden Puffer ein wie im letzten Newsletter beschrieben: Wie stellst du die Datenpuffer bei USB und LAN richtig ein?

Dann profitierst du von dem sprichwörtlich schwarzen Hintergrund, einer sensationellen Instrumententrennung und von einem analogen Klang.

Du hast Fragen oder möchtest etwas beitragen? Schreibe uns: Kontaktformular
Oder schreibe per E-Mail an: info@griggaudio.de

*ChatGPT hat mir beim Schreiben geholfen.

Ein Gedanke zu „Welche neuen Datenübertragungsstandards sind für Audio im Gespräch?

  1. In einem früheren Beitrag stand: „Die Datenübertragung bei S/PDIF kann als asynchron betrachtet werden. Hier wird der Takt vom Empfänger gesteuert.“ Das wurde korrigiert, da in einem typischen Szenario die Datenübertragung synchron ist. Es hängt von der Gerätekonfiguration ab.

Kommentare sind geschlossen.