
Die Welt um uns herum ist voller Informationen, die unser Gehirn kontinuierlich verarbeitet. Er erhĂ€lt diese Informationen ĂŒber die Sinne, die jeweils fĂŒr den Anteil der Signale verantwortlich sind: Augen (Vision), Zunge (Geschmack), Nase (Geruch), Haut (BerĂŒhrung), Vestibularapparat (Gleichgewicht, rĂ€umliche Position und Gewichtssinn) und Ohren (Ton). Durch die Zusammenstellung von Signalen aus all diesen Organen kann unser Gehirn ein genaues Bild der Umwelt erstellen. Es sind uns jedoch nicht alle Aspekte der externen Signalverarbeitung bekannt. Eines dieser Geheimnisse ist der Lokalisierungsmechanismus der Schallquelle.
Wissenschaftler des Neuroengineering-Labors fĂŒr Sprache und Hören (New Jersey Institute of Technology) haben ein neues Modell des neuronalen Prozesses der Schalllokalisierung vorgeschlagen. Welche Prozesse genau bei der Wahrnehmung von Schall im Gehirn ablaufen, wie unser Gehirn die Position der Schallquelle versteht und wie diese Studie im Kampf gegen GehörschĂ€den helfen kann. Dies erfahren wir aus dem Bericht der Forschergruppe. Lass uns gehen.
Studienbasis
Die Informationen, die unser Gehirn von den Sinnen erhĂ€lt, unterscheiden sich sowohl in der Quelle als auch in der Verarbeitung. Einige Signale erscheinen unmittelbar vor unserem Gehirn in Form genauer Informationen, wĂ€hrend andere zusĂ€tzliche Rechenprozesse benötigen. Grob gesagt spĂŒren wir die BerĂŒhrung sofort, aber wenn wir den Klang hören, mĂŒssen wir immer noch herausfinden, woher er kommt.
Die Grundlage fĂŒr die Lokalisierung von Tönen in der horizontalen Ebene ist der Zeitunterschied zwischen den Ohren
* (ITD aus dem
Zeitunterschied zwischen den Ohren) der Töne, die die Ohren des Hörers erreichen.
Interaurale Basis * - der Abstand zwischen den Ohren.
Es gibt einen bestimmten Bereich im Gehirn (Medial Superior Olive oder MBO), der fĂŒr diesen Prozess verantwortlich ist. Zum Zeitpunkt des Empfangs des Schallsignals im MBO werden die interauralen Zeitunterschiede in die Reaktionsrate der Neuronen umgewandelt. Die Form der Ausgangsgeschwindigkeitskurven des MBO als ITD-Funktion Ă€hnelt der Form der Kreuzkorrelationsfunktion der Eingangssignale fĂŒr jedes Ohr.
Die Art und Weise, wie Informationen im MBO verarbeitet und interpretiert werden, ist nach wie vor unklar, weshalb es mehrere sehr widersprĂŒchliche Theorien gibt. Die bekannteste und in der Tat klassische Theorie der Schalllokalisierung ist das Jeffress-Modell (
Lloyd A. Jeffress ). Es basiert auf einer
markierten Reihe * von Neuronendetektoren, die fĂŒr die binaurale Synchronisation neuronaler Eingangssignale von jedem Ohr empfindlich sind, und jedes Neuron reagiert am empfindlichsten auf einen bestimmten ITD-Wert (
1A ).
Das Prinzip der markierten Linie * ist eine Hypothese, die erklĂ€rt, wie verschiedene Nerven, die alle dieselben physiologischen Prinzipien verwenden, um Impulse entlang ihrer Axone zu ĂŒbertragen, unterschiedliche Empfindungen erzeugen können. Strukturell Ă€hnliche Nerven können unterschiedliche sensorische Wahrnehmungen erzeugen, wenn sie mit einzigartigen Neuronen im Zentralnervensystem assoziiert sind, die in der Lage sind, Ă€hnliche Nervensignale auf verschiedene Arten zu decodieren.
Bild Nr. 1Dieses Modell Àhnelt rechnerisch der neuronalen Kodierung, die auf unbegrenzten Kreuzkorrelationen von GerÀuschen basiert, die beide Ohren erreichen.
Es gibt auch ein Modell, bei dem angenommen wird, dass die Lokalisierung von Schall auf der Grundlage von Unterschieden in der Reaktionsrate bestimmter Populationen von Neuronen aus verschiedenen HemisphÀren des Gehirns modelliert werden kann, d. H. Modell der interhemisphÀrischen Asymmetrie (
1B ).
Bisher war es schwierig, eindeutig festzustellen, welche der beiden Theorien (Modelle) richtig ist, da jedes von ihnen unterschiedliche AbhÀngigkeiten der Schalllokalisierung von der SchallintensitÀt vorhersagt.
In der Studie, die wir heute betrachten, haben Wissenschaftler beschlossen, beide Modelle zu kombinieren, um zu verstehen, ob die Wahrnehmung von GerĂ€uschen auf neuronaler Kodierung oder auf dem Unterschied in der Reaktion einzelner neuronaler Populationen beruht. Es wurden mehrere Experimente durchgefĂŒhrt, an denen Personen im Alter von 18 bis 27 Jahren (5 Frauen und 7 MĂ€nner) teilnahmen. Die Audiometrie (Messung der HörschĂ€rfe) der Teilnehmer betrug 25 dB oder mehr bei einer Frequenz von 250 bis 8000 Hz. Der Versuchsteilnehmer wurde in einen schalldichten Raum gebracht, in dem spezielle GerĂ€te mit hoher Genauigkeit kalibriert wurden. Teilnehmer sollten, nachdem sie ein Tonsignal gehört haben, die Richtung angeben, aus der es kommt.
Forschungsergebnisse
Um die AbhÀngigkeit der
Lateralisierung * der GehirnaktivitÀt von der SchallintensitÀt als Reaktion auf markierte Neuronen zu bestimmen, verwendeten wir Daten zur Reaktionsrate von Neuronen im laminaren Kern des Schleiereulengehirns.
LateralitÀt * - Asymmetrie der linken und rechten KörperhÀlfte.
Um die AbhĂ€ngigkeit der Lateralisierung der HirnaktivitĂ€t von der Reaktionsgeschwindigkeit bestimmter Neuronenpopulationen zu bestimmen, haben wir die AktivitĂ€tsdaten des unteren Zweihirns des Rhesusaffen herangezogen. AnschlieĂend wurden Unterschiede in der Geschwindigkeit von Neuronen aus verschiedenen HemisphĂ€ren berechnet.
Das Modell der markierten Reihe von Neuronendetektoren legt nahe, dass die LateralitÀt der wahrgenommenen Quelle mit abnehmender SchallintensitÀt in Durchschnittswerten konvergiert, die dem VerhÀltnis von leisen und lauten GerÀuschen (
1C ) Àhnlich sind.
Das interhemisphÀrische Asymmetriemodell legt wiederum nahe, dass sich die wahrgenommene LateralitÀt bei einer Abnahme der SchallintensitÀt auf fast die Schwelle zur Mittellinie (
1D ) verlagert.
Bei einer höheren GesamtschallintensitĂ€t wird angenommen, dass die Lateralisierung in der IntensitĂ€t unverĂ€nderlich ist (EinfĂŒgungen bei
1C und
1D ).
Aus diesem Grund können Sie anhand einer Analyse der Auswirkungen der SchallintensitÀt auf die wahrgenommene Schallrichtung genau bestimmen, welche Prozesse in diesem Moment ablaufen - Neuronen aus einem gemeinsamen Bereich oder Neuronen aus verschiedenen HemisphÀren.
Offensichtlich kann die FĂ€higkeit einer Person, zwischen ITDs zu unterscheiden, mit der SchallintensitĂ€t variieren. Wissenschaftler sagen jedoch, dass es schwierig ist, frĂŒhere Erkenntnisse in Bezug auf die Empfindlichkeit gegenĂŒber ITD und die Beurteilung der Richtung der Schallquelle durch den Hörer als Funktion der SchallintensitĂ€t zu interpretieren. Einige Studien besagen, dass die wahrgenommene LateralitĂ€t der Quelle abnimmt, wenn die SchallintensitĂ€t die Grenzschwelle erreicht. Andere Studien legen nahe, dass die IntensitĂ€t der Wahrnehmung ĂŒberhaupt nicht beeinflusst wird.
Mit anderen Worten, die Wissenschaftler deuten "sanft" an, dass es in der Literatur nicht genĂŒgend Informationen ĂŒber die Beziehung von ITD, SchallintensitĂ€t und die Bestimmung der Richtung seiner Quelle gibt. Es gibt Theorien, die als eine Art von Axiomen existieren, die von der wissenschaftlichen Gemeinschaft allgemein akzeptiert werden. Daher wurde beschlossen, alle Theorien, Modelle und möglichen Mechanismen der Hörwahrnehmung in der Praxis im Detail zu testen.
Das erste Experiment wurde unter Verwendung des psychophysischen Paradigmas durchgefĂŒhrt, das es uns ermöglichte, die ITD-basierte Lateralisierung als Funktion der SchallintensitĂ€t in einer Gruppe von zehn normal hörenden Versuchsteilnehmern zu untersuchen.
Bild Nr. 2Schallquellen wurden speziell abgestimmt, um den gröĂten Teil des Frequenzbereichs abzudecken, in dem Menschen ITD erkennen können, d. H. 300 bis 1200 Hz (
2A ).
In jedem der Tests musste der Hörer die erwartete LateralitÀt, gemessen als Funktion des Empfindungsniveaus, im Bereich von ITD-Werten von 375 bis 375 ms angeben. Um den Effekt der SchallintensitÀt zu bestimmen, wurde das nichtlineare Mixed-Effect-Modell (NMLE) verwendet, das sowohl feste als auch zufÀllige SchallintensitÀten umfasste.
Die Grafik
2B zeigt die geschĂ€tzte Lateralisierung mit spektral flachem Rauschen bei zwei SchallintensitĂ€ten fĂŒr einen reprĂ€sentativen Hörer. Ein Graph
2C zeigt die Rohdaten (Kreise) und ist auf das NMLE-Modell (Linien) aller Zuhörer zugeschnitten.
Tischnummer 1Die obige Tabelle zeigt alle NLME-Parameter. Es ist ersichtlich, dass die wahrgenommene LateralitĂ€t mit zunehmender ITD zunahm, wie Wissenschaftler erwartet hatten. Mit abnehmender SchallintensitĂ€t verlagerte sich die Wahrnehmung immer mehr in Richtung Mittellinie (EinfĂŒgung im
2C- Diagramm).
Diese Trends wurden durch das NLME-Modell verstÀrkt, das einen signifikanten Einfluss von ITD und SchallintensitÀt auf den maximalen LateralitÀtsgrad zeigte und das Modell der interhemisphÀrischen Unterschiede bestÀtigte.
DarĂŒber hinaus wirkten sich die durchschnittlichen audiometrischen Schwellenwerte fĂŒr reine Töne nur unwesentlich auf die wahrgenommene LateralitĂ€t aus. Die SchallintensitĂ€t hatte jedoch keinen signifikanten Einfluss auf die Leistung psychometrischer Funktionen.
Das Hauptziel des zweiten Experiments war es zu bestimmen, wie sich die im vorherigen Experiment erhaltenen Ergebnisse Ă€ndern, wenn die spektralen Merkmale von Reizen (GerĂ€uschen) berĂŒcksichtigt werden. Die Notwendigkeit, spektral flaches Rauschen bei niedriger SchallintensitĂ€t zu testen, besteht darin, dass Teile des Spektrums möglicherweise nicht gehört werden und dies die Bestimmung der Schallrichtung beeintrĂ€chtigen kann. Daher kann die Tatsache, dass die Breite des hörbaren Teils des Spektrums mit abnehmender SchallintensitĂ€t abnehmen kann, mit den Ergebnissen des ersten Experiments verwechselt werden.
Aus diesem Grund wurde beschlossen, ein weiteres Experiment durchzufĂŒhren, bei dem jedoch bereits
A-bewertetes Rauschen verwendet wurde.
Eine A-Gewichtung * wird auf Schallpegel angewendet, um die relative LautstĂ€rke zu berĂŒcksichtigen, die vom menschlichen Ohr wahrgenommen wird, da das Ohr fĂŒr niedrige Schallfrequenzen weniger empfindlich ist. Eine A-Gewichtung wird durch arithmetisches HinzufĂŒgen einer in OktavbĂ€ndern aufgelisteten Wertetabelle zu den gemessenen Schalldruckpegeln in dB implementiert.
Das
2D- Diagramm zeigt die auf das NMLE-Modell zugeschnittenen Rohdaten (Kreise) und Daten (Linien) fĂŒr alle Versuchsteilnehmer.
Eine Analyse der Daten ergab, dass, wenn alle Teile des Schalls ungefĂ€hr gleich hörbar sind (sowohl im ersten als auch im zweiten Experiment), die wahrgenommene LateralitĂ€t und Steigung in der Grafik, die die Ănderung der LateralitĂ€t mit der ITD erklĂ€ren, mit abnehmender SchallintensitĂ€t abnimmt.
Somit bestĂ€tigten die Ergebnisse des zweiten Experiments die Ergebnisse des ersten. Das heiĂt, in der Praxis hat sich gezeigt, dass das 1948 von Jeffress vorgeschlagene Modell nicht korrekt ist.
Es stellt sich heraus, dass sich die Lokalisierung von GerĂ€uschen mit abnehmender GerĂ€uschintensitĂ€t verschlechtert, und Jeffress glaubte, dass GerĂ€usche von einer Person unabhĂ€ngig von ihrer IntensitĂ€t gleichermaĂen wahrgenommen und verarbeitet werden.
Um die Nuancen der Studie genauer kennenzulernen, empfehle ich Ihnen, in den
Bericht der Wissenschaftler zu schauen.
Nachwort
Theoretische Annahmen und praktische Experimente, die diese bestĂ€tigten, zeigten, dass Gehirnneuronen von SĂ€ugetieren in AbhĂ€ngigkeit von der Richtung des Schallsignals mit unterschiedlichen Geschwindigkeiten aktiviert werden. AnschlieĂend vergleicht das Gehirn diese Geschwindigkeiten zwischen allen am Prozess beteiligten Neuronen, um die Klangumgebung dynamisch abzubilden.
Das Jeffresson-Modell ist tatsĂ€chlich nicht 100% ig fehlerhaft, da es dazu verwendet werden kann, die Position einer Schallquelle in einer Schleiereule perfekt zu beschreiben. Ja, fĂŒr Schleiereulen spielt die IntensitĂ€t des GerĂ€usches keine Rolle, sie bestimmen auf jeden Fall die Position ihrer Quelle. Dieses Modell funktioniert jedoch nicht mit Rhesusaffen, wie aus frĂŒheren Experimenten hervorgeht. Daher kann dieses Jeffresson-Modell die Lokalisierung von GerĂ€uschen fĂŒr alle Lebewesen nicht beschreiben.
Experimente mit Menschen haben erneut bestÀtigt, dass die Lokalisierung von GerÀuschen in verschiedenen Organismen auf unterschiedliche Weise erfolgt. Viele der Teilnehmer konnten die Position der Quelle der Tonsignale aufgrund der geringen IntensitÀt der Töne nicht richtig bestimmen.
Wissenschaftler glauben, dass ihre Arbeit eine gewisse Ăhnlichkeit zwischen der Art und Weise zeigt, wie wir sehen und wie wir hören. Beide VorgĂ€nge hĂ€ngen mit der Geschwindigkeit der Neuronen in verschiedenen Teilen des Gehirns sowie mit der Bewertung dieses Unterschieds zusammen, um sowohl die Position der Objekte im Raum als auch die Position der Schallquelle zu bestimmen, die wir hören.
In Zukunft werden Forscher eine Reihe von Experimenten durchfĂŒhren, um die Beziehung zwischen menschlichem Hören und Sehen genauer zu untersuchen. Auf diese Weise können wir besser verstehen, wie unser Gehirn dynamisch eine Karte der Welt um uns herum erstellt.
Vielen Dank fĂŒr Ihre Aufmerksamkeit, bleiben Sie neugierig und haben Sie eine gute Arbeitswoche, Jungs! :)
Vielen Dank fĂŒr Ihren Aufenthalt bei uns. Mögen Sie unsere Artikel? Möchten Sie weitere interessante Materialien sehen? UnterstĂŒtzen Sie uns, indem Sie eine Bestellung aufgeben oder Ihren Freunden empfehlen,
Cloud-VPS fĂŒr Entwickler ab 4,99 US-Dollar , ein
30-prozentiger Rabatt fĂŒr Habr-Benutzer auf ein einzigartiges Analogon von Einstiegsservern, das wir fĂŒr Sie erfunden haben: Die ganze Wahrheit ĂŒber VPS (KVM) E5-2650 v4 (6 Kerne) 10 GB DDR4 240 GB SSD 1 Gbit / s ab 20 US-Dollar oder wie man einen Server freigibt? (Optionen sind mit RAID1 und RAID10, bis zu 24 Kernen und bis zu 40 GB DDR4 verfĂŒgbar).
Dell R730xd 2 mal gĂŒnstiger? Nur wir haben
2 x Intel TetraDeca-Core Xeon 2 x E5-2697v3 2,6 GHz 14C 64 GB DDR4 4 x 960 GB SSD 1 Gbit / s 100 TV ab 199 US-Dollar in den Niederlanden! Dell R420 - 2x E5-2430 2,2 GHz 6C 128 GB DDR3 2x960 GB SSD 1 Gbit / s 100 TB - ab 99 US-Dollar! Lesen Sie mehr ĂŒber
das Erstellen von Infrastruktur-Bldg. Klasse mit Dell R730xd E5-2650 v4 Servern fĂŒr 9.000 Euro fĂŒr einen Cent?