In einfachen Worten über digitalen und analogen Klang



Als nächstes folgt das Transkript der zehnten Veröffentlichung (22.05.2014) des Podcasts „Sound“. Darin spricht Dmitry Kabanov mit Anatoly Dmitrievich Arsenov, Ph.D., einem ausgebildeten Physiker, einem Experten auf dem Gebiet der IT und des digitalen Klangs, einem Ingenieur am F-Lab zum Thema digitaler und analoger Klang.

[ Hören Sie sich diese Ausgabe an ]

[ Mehr zum Podcast ]

Andere Podcast-Probleme
  • [] [] ;
  • [] [] , ;

  • [] [] S-90;
  • [] [] ;
  • [] [] : , ;
  • [] [] «»;
  • [] [] ;

  • [] [] ;
  • [] [] ;
  • [] [] ;
  • [] [] ;
  • [] [] ;

  • [] [] ;
  • [] [] ;
  • [] [] : ;
  • [] [] : « » ;
  • [] [] ;

  • [] [] ;
  • [] [] ;
  • [] [] ;
  • [] [] - ;
  • [] [] .


Dmitry Kabanov: Wir sprechen weiterhin mit Experten und Ingenieuren von Audiomania, und heute werden wir versuchen, tiefer zu graben, die Natur des digitalen und analogen Klangs zu untersuchen und wahrscheinlich mit der Frage zu beginnen, was Klang im Prinzip ist. Was ist das grundlegende Verständnis von analogem Klang, das sich in einfachen Worten von digitalem Klang oder analoger Klangdarstellung und digitaler Klangdarstellung unterscheidet?

Anatoly Arsenov:Bei der Beantwortung dieser Frage halte ich es für angebracht, jeder russisch ausgebildeten Person einfache Modelle zu vermitteln, die vielleicht aus dem Schulkurs bekannt sind. Insbesondere die Geschichte des Klangs [als] digital, [so] und analog beginnt seltsamerweise schon lange vor dem Aufkommen digitaler Geräte. Jeder kennt die Übertragung der Stimme einer Person mit einem herkömmlichen kabelgebundenen Telefon. Dies ist ein echtes Beispiel für die Übertragung von analogem Audio aus der Ferne. In diesem Fall hat der Sprecher einen Telefonhörer vor sich, in dem sich ein Mikrofon und eine Membran befinden, die entsprechend der Stimme der Person schwingt. Das entgegengesetzte Verfahren findet am entgegengesetzten Ende statt, dh die Membran des Telefons am Ohr des Teilnehmers schwingt.

Was wird per Kabel übertragen? Wir haben ein Wechselspannungssignal: Der Strom im Kabel ändert sich sozusagen entsprechend den Aussagen einer Person, um nicht auf Details einzugehen. Was ist digitaler Sound? Hier [wir können ein ähnliches Beispiel geben] aus derselben Zeit - telegraphische Signalübertragung, Morsecode. In diesem Fall hat der Ansager einen Text vor sich, aber er muss den Morsecode kennen. Von wem wird der Text weiter verschlüsselt? Von der Person, die weiß, wie man den Buchstaben "A" überträgt, wie man den Buchstaben "B" überträgt usw. Was wird an die Signalleitung gesendet? Es werden Signale gesendet: ein Punkt und ein Strich, die Art und Weise, wie der Ton jetzt grob codiert wird - mit Nullen und Einsen übertragen zwei Zustände zwei Zustände.

Was soll der Abonnent auf der anderen Seite tun, wenn er diesen Text verstehen, akzeptieren und diese Nachricht erhalten möchte? Er muss den Morsecode kennen, er sollte genau diese Punkte und Striche erhalten und wenn er sie kennt, muss er bereits verstehen, worum es geht. Das ist in der Tat der ganze Unterschied. In einem Fall wird ein Signal übertragen, das der Art eines Modells der durch elektrische Signale übertragenen Stimme einer Person entspricht. Im zweiten Fall werden Zeichen übertragen, die auf beliebige Weise codiert sind. In diesem Fall waren dies Punkte und Striche. Viele Jahre später, in der Neuzeit, haben wir bereits zwei Arten der Signalübertragung, die sehr weit von dieser alten Geschichte entfernt sind.

Dmitry:Es stellt sich heraus, dass ein digitaler Ton oder eine digitale Darstellung von Ton als eine Art Kompromiss verstanden werden kann, den wir erhalten, wenn wir einen analogen Ton nehmen und ihn in einen digitalen umwandeln.

Anatoly: Nun, ist es ein Kompromiss oder nicht ... Ein Kompromiss mit was? Mit Hardware-Funktionen? Ja, das ist ein Kompromiss. Mit den Anforderungen der modernen Technologie mehr Informationen pro Zeiteinheit auf größere Entfernungen mit hoher Qualität und der Fähigkeit zur nachfolgenden Korrektur zu übertragen? Ja, das ist ein Kompromiss. Natürlich muss das Gerät über die entsprechende Leistung verfügen, um analoges Audio über große Entfernungen mit hoher Qualität übertragen zu können, und ich werde nicht sagen, dass es billig und immer materialintensiv sein wird.

In einem bestimmten Stadium der technologischen Entwicklung erwies es sich als am produktivsten, Signale nicht in expliziter Form zu übertragen, wie dies bei analogen Geräten der Fall ist, sondern in Form eines Modells, einer Zahlentabelle. Hier kann ich ein ähnliches Beispiel aus einer etwas anderen Praxis nennen, die auch jedem bekannt ist. Wenn Sie also eine geografische Karte haben ... können Sie Ihrem Freund auf diese Weise Informationen übermitteln, wenn die Aufgabe darin besteht, von einem Punkt zum anderen zu gelangen? Sie müssen eine Karte nehmen, eine Linie mit einem Bleistift zeichnen, wie Sie gegangen sind oder wie Sie gehen werden, und diese Karte weiterleiten, hier sind Sie bitte - wir übermitteln die Informationen in einer expliziten Form.

Sie können es auch auf andere Weise tun: Wenn Sie wissen, dass ein Freund genau dieselbe Karte hat, übergeben Sie eine Platte mit den Koordinaten der Punkte. Was wird in diesem Fall übertragen? Die Broschüre, auf der die Tabelle aufgezeichnet wird: Breite, Länge, Breite, Länge, Breite, Länge usw. In diesem Fall handelt es sich nur um eine Zahlentabelle. Nachdem der Genosse diese Tabelle erhalten hat, seine Karte genommen und diese Punkte mit Koordinaten markiert hat, wird er sofort bestimmen, wie es weitergehen soll. Was haben wir in diesem Fall vermittelt? Die Karte selbst mit der Route, oder haben wir die Tabelle übergeben, eine Art Kodierung?

Dies alles geschieht in der digitalen Technologie. Ein unverzichtbares Element in der digitalen Technologie ist der Codierer oder Decodierer. In der digitalen Technologie ist es üblich zu sagen, dass es sich um eine Digital-Analog-Wandlung handelt.

Dmitry:Ein gutes Beispiel, scheint es mir, lohnt es sich, sich hier mit dem [Thema] Speicher zu befassen? Format, Verständnis von Formaten, Verständnis ihrer Unterschiede, denn es gibt viele Mythen darüber, welche Formate wir haben - mit Verlusten, ohne Verluste, Komprimieren einer Datei auf unterschiedliche Weise usw.

Anatoly: Wie aus den obigen Beispielen hervorgeht, ist die digitale Form Die bedingte Form der Signalübertragung ist mathematisch gesehen ein Formalisierungssystem. Das Signal wird in der herkömmlichen Form eines mathematischen Modells übertragen - wenn wir noch tiefer sprechen, ist es eine Matrix, die zu jedem Zeitpunkt bestimmte Zahlen enthält, die das Signal charakterisieren.

Was vermitteln die Zahlen in Bezug auf den Klang? Die Zahlen übertragen das Spektrum des Signals, seine Amplitude, Lautstärke. Die Frequenzen dieses Signals, hoch, niedrig, [wie] wie diese Frequenzen timbral miteinander verbunden sind, usw. sind eine in eine numerische Form umgewandelte spektrale Charakteristik, die [an das Gerät] übertragen wird.

Zu Beginn der Computertechnologie waren die Fähigkeiten von PCs nicht sehr breit. Um einfache Aufgaben zu realisieren, musste ein Computergerät über eine ausreichende Speicherkapazität und CPU-Leistung verfügen. Dadurch konnte das digitale Formular den aufgenommenen Ton nicht detailliert anzeigen. Ein einfaches Beispiel: Wenn Sie vor fünfzehn Jahren eine Soundkarte an einen alten Computer anschließen, ein Mikrofon anschließen, Ihre Stimme digitalisieren, dann glaube ich nicht, dass [das Ergebnis] vielen gefallen würde, [nämlich] die Qualität der aufgenommenen Stimme.

Nun, objektiv, warum? Ein Mikrofonsignal wurde an den Eingang der Soundkarte angelegt. Die Frequenzeigenschaften des digitalen Pfades waren damals recht bescheiden, und daher wurde ein analoges Signal, dh Ton, in eine Schaltung umgewandelt, mit der Sie diesen Ton in Computern digital anzeigen können. Dies war ein komplexer Prozess, und natürlich versuchten Gerätehersteller und -entwickler dieser Zeit, Speicherplatz zu sparen und Prozessorleistung, erstellt einfache Schemata zum Codieren von Ton in die Form, in der er auf einem Computer gespeichert werden kann.

Was hat das gebracht? Zu den Verlusten. Vor allem als Sound. Mit dem Wachstum der Produktivität der Computerhardware, der CPU-Leistung und der Zunahme des Speichervolumens wurde dieses Problem allmählich von der Tagesordnung gestrichen, doch die damals entwickelten Ansätze haben die Entwicklung der digitalen Technologie geprägt. Wenn mir das Gedächtnis recht ist, war es 1994 [war], [das Fraunhofer-Institut arbeitete an der Schaffung des MP3-Formats - dieses Format ist bis heute sehr beliebt, um Musik und verschiedene Audiodaten in tragbaren Geräten zu speichern, insbesondere Smartphones.

Dmitry:Hier eine kurze Wiki-Referenz: MP3 (genauer gesagt MPEG-1/2 / 2.5 Layer 3; aber nicht MPEG3) ist ein Codec der dritten Ebene, der vom MPEG-Team entwickelt wurde, einem lizenzierten Dateiformat zum Speichern von Audioinformationen. Das MP3 wurde von einer Arbeitsgruppe des Fraunhofer-Instituts unter der Leitung von Karlheinz Brandenburg von der Universität Erlangen-Nürnberg in Zusammenarbeit mit AT & T Bell Labs und Thomson entwickelt.

Grundlage für die Entwicklung von MP3 war der experimentelle ASPEC-Codec (Adaptive Spectral Perceptual Entropy Coding). Der erste MP3-Encoder war L3Enc, der im Sommer 1994 veröffentlicht wurde. Ein Jahr später erschien der erste Software-MP3-Player - Winplay3. Bei der Entwicklung des Algorithmus wurden Tests an sehr spezifischen populären Kompositionen durchgeführt. Das Hauptlied war Suzanne Vegas Tom's Diner. Daher der Witz, dass "MP3 nur für das bequeme Hören von Brandenburgs Lieblingssong erstellt wurde" und Vega "Mom MP3" genannt wurde.

Anatoly:Wovon zeichnet es sich aus? [Was ist] sein Unterschied zum Klang, der sich in keiner anderen Weise als in digital umzuwandeln, von einem analogen Signal unterscheidet (wir haben diese Dateien Wellenformen genannt)? Wer mit Apple-Computern vertraut ist, hatte dort [solche] Dateien ein Format namens AIFF, wie ich mich erinnere.

Dmitry: Ja, das ist es.

Anatoly: Die Form dieser beiden Dateien, das Format dieser Datei, ist einfach eine digitale Anzeige von analogem Ton. Aber in Computern dieser Zeit nahm es ein sehr großes Volumen ein und solche Dateien im Computer konnten ein wenig gespeichert werden. Was war der Unterschied zwischen MP3s?

Die Mathematiker des Fraunhofer-Instituts, die sich diesem Problem näherten, beschlossen, dieses mathematische Modell zu vereinfachen, dh aus dem digitalen Modell des realen Klangs das zu entfernen, was von einer Person beim Hören nicht wahrgenommen wird. Welche Momente wurden zunächst mathematisch verarbeitet? Die Grundgesetze der Akustik wurden angewendet. Einer von ihnen sagt insbesondere: Wenn eine Art Signal ertönte, nehmen wir an, ein Glockenspiel oder jemand nahm einen Akkord auf dem Klavier und gleichzeitig war eine Art leiser Klang zu hören, dessen Lautstärkeunterschied [mit dem ersten Ton ] übersteigt 90 dB - die Einheit, mit der der Schalldruck gemessen wird - dieser Schall wird von niemandem mit Wunderohren in irgendeiner Weise gehört.

Dmitry: Daher können Informationen weggeworfen werden.

Anatoly:Niemand [dieser Ton] wird es hören. Wenn der Unterschied zwischen dem lautesten und dem leisesten Ton zu einem bestimmten Zeitpunkt mehr als 90 dB beträgt, können Sie diese Töne sicher aus der Aufnahme entfernen und ausschneiden. Dies ist eine Möglichkeit. Was hier passiert, sind Experten, die ein Signal mit niedrigem Pegel mit einem Signal mit höherem Pegel maskieren.

Ein anderer Weg: Mit HiFi-Geräten können Sie in der Regel Signale mit bestimmten Frequenzen erfassen - wenn wir über Frequenzen sprechen und keine Konzepte wie hohe, niedrige und mittlere Frequenzen verwenden. Signale mit Frequenzen von 20 Hz bis 20.000 Hz sind das Band, das das Gerät reproduzieren kann. Wird eine Person diesen gesamten Bereich hören? Wenn Sie aus der Sicht der Wahrnehmung einer Person schauen und einen Begriff wie Psychoakustik einführen, können Sie [auch] das Signal vereinfachen.


, , . –

Die meisten Erwachsenen - diejenigen, die die Pubertät überschritten haben, hören in der Regel keine Frequenzen über 16 kHz, was bedeutet, dass der Bereich über 16 kHz auch auf irgendeine Weise mathematisch reduziert werden kann und diese Informationen daher aus der aufgezeichneten Datei entfernt werden Verwendung eines digitalen Mikrofons, da es vom Hörer auch nicht angemessen wahrgenommen wird. Dasselbe passiert im niedrigen Bereich: Diejenigen, die sich mit menschlicher Physiologie beschäftigen, wissen, dass jeder Mensch, wenn er natürlich normal ist und keine Pathologie hat, keine niederfrequenten Signale unter 16 Hz mit seinem Ohr wahrnimmt - er nimmt [wie z Signale] entweder taktil oder Organe des Körpers.

Es beginnt, all diese Sounds können auch schmerzlos [gelöscht] werden, ohne die Hauptqualität des Tonsignals zu verlieren, wenn es sich beispielsweise um ein Musikstück handelt. Im Prinzip gibt es heutzutage eine ganze Reihe dieser Methoden: Schaltungen, die in digitalem Sound verwendet werden, MP3-Formate, Maskieren von reinen Tönen mit Rauschen usw. usw.

Um kurz zu veranschaulichen, was es ist: Nach den Verfahren zum Konvertieren eines digitalen Modells von analogem Klang, das wir in Wave- oder AIFF-Formaten sehen, in das MP3-Format, nachdem diese Verfahren ausgeführt wurden (Maskieren, Löschen der Geräusche, die dies nicht können) von einer Person wahrgenommen werden) - der Klang in der Zwischenstufe ist nicht sehr angenehm zum Hören, er trägt den Eindruck des Anhaltens, das Hören einer Person, insbesondere eines Musikers, kann unangenehm sein, daher kann es in digitalen Formaten „verwechselt“ werden, um die Fehler in der letzten Stufe zu verbergen "Rauschpegelsignal mit niedriger Amplitude.

Dies erfolgt durch einen speziellen Algorithmus. Im Prinzip können Sie dies anhand dieses Beispiels veranschaulichen: Wenn Sie sich in einem Raum befinden und im nächsten Raum jemand spricht und es Sie stört, schalten Sie den Staubsauger ein. Das Rauschen eines Staubsaugers ist ein niederfrequentes Signal in Bezug auf die menschliche Sprache, und niederfrequente Signale maskieren immer hochfrequente Signale, aber nicht umgekehrt. Sie werden keine nervigen Gesprächspartner mehr hören. Ungefähr das Gleiche passiert in digitalen Formaten, in der letzten Phase nach der Digitalisierung wird ein Rauschsignal mit einer bestimmten Amplitude, eine bestimmte spektrale Zusammensetzung eingemischt, es kann eine Art weißes Rauschen sein.

Dmitry:Nun, dann versuchen wir, über Fälle zu sprechen, in denen wir sagen können, dass wir mit MP3 immer noch etwas verlieren - es ist nicht immer ideal für den Gebrauch, es ist nicht immer geeignet, eine Geräteklasse kann uns etwas mehr erlauben.

Anatoly: Ganz richtig, MP3 als Format für die kompakte Speicherung von Audiodaten in der Computertechnologie und als eines der ältesten Formate verlor im Laufe der Zeit langsam an Popularität. Warum? Nun [zuallererst] hat die Computertechnologie ihre Leistung und ihren Speicher erhöht, [was bedeutet, dass] die Notwendigkeit der Komprimierung und des Stopps von Audiodaten verschwunden ist, es gibt keine solche Spannung - wir haben jetzt genug Speicher auf modernen Computern, die Prozessorleistung ist ausreichend, also wir Wir können nicht komprimierten digitalen Sound hören.

Welche Schritte wurden damals unternommen, um Verletzungen durch Kompaktmusik zu vermeiden? Zunächst sind konkurrierende Formate für komprimierten Audiospeicher erschienen. Diejenigen, die Apple-Computer und -Tablets, Smartphones und iPhones verwenden, wissen, in welchem ​​Format die Musik im Apple Store [iTunes] verkauft wird - wenn ich mich nicht irre, ist es MP4, oder?

Dmitry: Ja.

Anatoly: Jemand wird sagen, dass es auch digitaler Sound und auch komprimiert ist und dass es [auch] Fehler hat. Nun ja. Erst als es später als MP3 erschien, begannen die Arbeiten an diesem Format irgendwann im Jahr 1997, dh fast 3-4 Jahre später [die Erstellung] von MP3, was bedeutet, dass diejenigen Entwickler, die dieses komprimierte Audio-Codierungssystem entwickelten, die Probleme berücksichtigten und die Fehler, die in den vorherigen Formaten waren, verbesserten sich [Produkt].

Worauf ich diese Beispiele bringe: Der digitale Klang, der zu einem bestimmten Zeitpunkt entstanden ist, hat mit dem Aufkommen von Computergeräten eine gewisse Entwicklung durchlaufen. Die Formate sowohl der unkomprimierten Speicherung von Audiodaten als auch der Formate der [Speicherung] von komprimiertem Ton haben sich weiterentwickelt. Die moderne Art, Audio in MP3 oder ähnlichem zu codieren, ist ziemlich weit fortgeschritten.

Nachdem [Format] zu einem bestimmten Zeitpunkt an Popularität gewonnen hat, ist es nun tatsächlich auf eine bestimmte Gruppe von Geräten festgelegt: hauptsächlich auf tragbare mobile Kommunikationstechnologien - Smartphones, Telefone, Player usw. Aufgrund der geringen Größe, der geringen Leistung und der geringen Lautsprecherfunktionen, die in Smartphones integriert sind , er fügte sich organisch in diese Struktur ein. Wenn wir über seriöse Geräte sprechen, insbesondere für das Hören zu Hause, insbesondere über HiFi-Geräte, dann ist sich hier natürlich nicht jeder anspruchsvolle Hörer einig, dass digitale Formate zum Speichern von Audiodaten in komprimierter Form geeignet sind.


Für diejenigen, die keine digitalen Formate zum Speichern von Daten in komprimierter Form akzeptieren, bietet Audio Mania analoge Lösungen. Auf dem Foto - ein Fragment der Installation von Audiomania

Unsere verwandten Materialien:


Es ist wahrscheinlich angebracht, unser Gespräch mit den Eigenschaften des Audio-Interfaces eines modernen Computers fortzusetzen, das die Grundlage für modernen digitalen Sound bildet. Darüber hinaus wird im Verlauf des Gesprächs deutlich, wie sich dies auf das Thema unseres Gesprächs bezieht, beispielsweise auf High-End-Audiogeräte. Eine moderne Audiokarte eines PCs oder Laptops weist mehrere Merkmale auf, die die Fähigkeiten dieses Computers hinsichtlich der Speicherung oder Wiedergabe von digitalem Ton vollständig beschreiben. Was ich meine? Die Frequenzen, mit denen die Audiokarte läuft, und die Bittiefe dieser Audiokarte. Wahrscheinlich kennt der Benutzer Zahlen wie 16 Bit und 44 kHz.

Dmitry: Natürlich.

Anatoly:Dies sind die grundlegenden Merkmale eines jeden Audiobereichs eines modernen Computers, egal ob Desktop- oder tragbarer Computer. Die gleichen Eigenschaften (dh die Bittiefe der Prozessoren) finden sich auch bei Standard-CD-Playern. Ohne auf Details einzugehen, sollte gesagt werden, dass dieser Standard vor langer Zeit aufgetaucht ist. Entwicklung eines Standards für die Speicherung solcher Audiodaten (16 Bit und 44 kHz) durch Hersteller von Haushalts-Audiogeräten, der bei uns allen sehr beliebt ist - Phillips, Sony, Toshiba. Mit der Entwicklung der Computertechnologie erhielten Audiokarten zusätzliche Funktionen, insbesondere eine Anzahl von Frequenzen, bei denen die Audiokarte arbeiten kann - 48 kHz, 96 kHz, 192 kHz, das auf der Audiokarte installierte Prozessorbit ebenfalls erhöht - 16 Bit, 24 Bit ...

Dmitry : 32 ...

Anatoly:Und jetzt 32. In einer professionellen Sprache ist die Frequenz von 44 kHz die erforderliche Frequenz, mit der Sie die Wellenform eines Audiosignals speichern können, z. B. eines Musikwerks oder einer menschlichen Stimme. Woher kommt diese Nummer und warum sollte die Audiokarte bei dieser Frequenz funktionieren? Es gab einen solchen Mathematiker Kotelnikov, der mit seinem Theorem diese Grenze eines technischen Geräts bewies, das die Digitalisierung eines Signals mit ausreichend hoher Qualität ermöglicht.

Es ist angebracht, ein Beispiel zu nennen: den einfachsten Klang, zum Beispiel den Klang einer Pfeife und einer Kinderpfeife ... die Form ihres Tonsignals ähnelt einer Sinuswelle, sagen wir mal. Was ist 44 kHz? Dies ist die Frequenz der Audiokarte. Ein solches Signal wird in einer Audiokarte sofort in 44.000 vertikale Streifen geschnitten. Was bekommen wir durch diesen Schnitt? Wir erhalten zu jedem Zeitpunkt den Wert der Lautstärke des Signals - eine vierundvierzigtausendstel Sekunde.

Dmitry: Und jetzt müssen wir alle diese Streifen verschlüsseln.

Anatoly:Jetzt müssen wir diese Streifen verschlüsseln und auf dem Computer speichern. Wie können wir [sie] verschlüsseln? Sie können sich den Lautstärkewert in jedem Balken merken. Nun, hier spielt ein anderes Merkmal der Audiokarte ihre Rolle - ihre Bittiefe. Insbesondere 16 Bit. Was ist 16 Bit? Informatiker sagen dies: zwei bis zum sechzehnten Grad.

Dmitry: Also.

Anatoly:Was ist die Zahl, 65 Tausend mit einem Penny? Es stellt sich heraus, dass ich eine Zahl von Null bis 65.536 verwenden kann, um genau zu sein, um die Höhe dieses Streifens selbst auszudrücken. Es wird eine Nummer sein. In einem Fall sind es 60.000, im anderen Fall 30.000 usw. [Mittel], in diesem Fall erhalten wir für eine Sekunde eine Tabelle, die 44.000 Ziffern enthält, von denen jede durch eine Zahl von Null bis 65 ausgedrückt wird 536. Diese Tabelle ist eine unkomprimierte Audiodatei.

Dmitry: Jetzt arbeiten wir weiter mit dieser Tabelle ...

Anatoly:Was sehen wir hier? Was wäre, wenn die Geschwindigkeit der Audiokarte [dann] höher wäre, würden wir wahrscheinlich eine viel größere Anzahl dieser Zahlen erhalten, was unser Signal genauer beschreiben würde. Der Wunsch von Entwicklern und Herstellern ist es natürlich, der wahren Wellenform näher zu kommen. Hier kommt der Wunsch der Konstrukteure her, die Frequenzen zu erhöhen. Sozusagen Jahr für Jahr von einer Geräteklasse zur nächsten usw.

Diese Entwicklung hat dazu geführt, dass diese Frequenzen ab einer Frequenz von 44 kHz langsam anstiegen. Ich habe das unglückliche Wort "leise" verwendet, weil die Entwicklung viel komplizierter war und alle Frequenzen verwendet wurden: sowohl 32 kHz als auch 24 kHz. Ein Zuhörer oder jemand Neugieriger kann fragen: "Wo werden diese Frequenzen verwendet?" weil es klar ist, dass der Klang [bei Verwendung von Frequenzen unter 44 kHz] rauer ist. Zum Beispiel bei der Übertragung von Fernsehsignalen in der Telefontechnik. Es ist nicht erforderlich, das Signal sehr genau zu beschreiben, aber wenn ein komplexes Musiksignal übertragen wird, erfüllen einige Konzertteile, wie sich herausstellte, 44 kHz nicht die Anforderungen an ein genaues Hören. Daher haben die Frequenzeigenschaften von Karten von Generation zu Generation immer zugenommen.

Um das Gespräch zu diesem Thema zu beenden und nicht auf Details einzugehen, lohnt es sich vielleicht, ein Beispiel zu nennen: Die Geburt von HD-Audio, es war 2004, Intel hat erst in diesem Jahr die Spezifikation von HD-Audio entwickelt, die aus den folgenden zwei Werten besteht: 32 Bits und 192 kHz. Also, nachdem die Spezifikationen für HD-Audio entwickelt wurden ... was ist HD, wie entschlüsseln wir es?

Dmitry: High Definition. Eine hohe Auflösung.

Anatoly:Hohe Auflösung, dh hochauflösendes Audio. Ein solcher Standard kann bereits die Grundlage für sehr hochwertige Audiogeräte sein, für Signalquellen, die zum Beispiel mit Vinyl konkurrieren werden, ich werde keine Angst vor diesem Wort haben. Wie endete die Geschichte der HD-Audioentwicklung? Intel übertrug seine Entwicklung auf drei Hersteller von Schnittstellen. Auf der Grundlage dieser Schnittstellen entwickelten Unternehmen, die Audio-Codecs für bestimmte technische Geräte herstellen, angefangen bei Realtek bis hin zu Wolfson, Codecs für ihre digitalen Prozessoren.

Source: https://habr.com/ru/post/de383321/


All Articles