KI-basierte Tiefenneuronale Netze als vielversprechende Modelle des menschlichen Hörvermögens - IT BOLTWISE® x Artificial Intelligence

CAMBRIDGE (MA) / MÜNCHEN (IT BOLTWISE) – Neueste Forschungen des MIT zeigen, dass maschinell lernende neuronale Netze, die akustische Aufgaben bewältigen, interne Repräsentationen erzeugen, die denen im menschlichen Gehirn ähneln. Dies könnte die Entwicklung besserer Hörgeräte, Cochlea-Implantate und Gehirn-Maschine-Schnittstellen vorantreiben.

In einer bahnbrechenden Studie haben Wissenschaftler des Massachusetts Institute of Technology (MIT) herausgefunden, dass moderne, aus maschinellem Lernen abgeleitete Computermodelle, die Struktur und Funktion des menschlichen Gehörs nachahmen, der Realisierung dieses Ziels einen Schritt näher gekommen sind.

In der bisher größten Untersuchung von tiefen neuronalen Netzwerken, die für auditorische Aufgaben ausgebildet wurden, stellte das MIT-Team fest, dass die meisten dieser Modelle interne Repräsentationen erzeugen, die Eigenschaften von Repräsentationen im menschlichen Gehirn aufweisen, wenn Menschen den gleichen Klängen lauschen.

Die Studie bietet zudem Einblick in die beste Trainingsmethode für solche Modelle: Die Forscher fanden heraus, dass Modelle, die mit akustischem Input einschließlich Hintergrundgeräusche trainiert wurden, die Aktivierungsmuster des menschlichen auditorischen Kortex besser nachahmen.

„Das Besondere an dieser Studie ist, dass sie die umfassendste Vergleichsanalyse dieser Art von Modellen mit dem auditorischen System bislang darstellt. Die Untersuchung deutet darauf hin, dass Modelle, die aus maschinellem Lernen abgeleitet sind, ein Schritt in die richtige Richtung sind und uns Hinweise darauf geben, was sie zu besseren Modellen des Gehirns macht“, erklärt Josh McDermott, ein assoziierter Professor für Gehirn- und Kognitionswissenschaften am MIT, Mitglied des McGovern Institute for Brain Research und des Center for Brains, Minds, and Machines und leitender Autor der Studie.

Greta Tuckute, Doktorandin am MIT, und Jenelle Feather, Doktorandin (PhD ’22), sind die Erstautorinnen der Open-Access-Publikation, die heute in PLOS Biology erschienen ist.

Tiefe neuronale Netzwerke sind Computermodelle, die aus vielen Ebenen von Informationseinheiten bestehen und an großen Datenmengen trainiert werden können, um spezifische Aufgaben zu bewältigen. Diese Art von Modell wird in vielen Anwendungen verwendet, und Neurowissenschaftler fangen an, die Möglichkeit zu erforschen, dass sie auch dazu verwendet werden können, zu beschreiben, wie das menschliche Gehirn bestimmte Aufgaben ausführt.

„Modelle, die mit maschinellem Lernen gebaut wurden, können Verhaltensweisen auf einem Niveau vermitteln, das mit früheren Modellen nicht möglich war. Das hat zu einem Interesse geführt, ob die Repräsentationen in den Modellen Dinge erfassen könnten, die im Gehirn passieren“, sagt Tuckute.

Ein neuronales Netzwerk generiert Aktivierungsmuster seiner Verarbeitungseinheiten als Reaktion auf jedes eingegebene Audiosignal, wie zum Beispiel ein Wort oder einen anderen Klang. Diese Modellrepräsentationen können mit den Aktivierungsmustern verglichen werden, die in fMRI-Gehirnscans von Menschen zu sehen sind, die dem gleichen Input lauschen.

2018 berichteten McDermott und der damalige Doktorand Alexander Kell, dass ein neuronales Netzwerk, das trainiert wurde, auditorische Aufgaben zu bewältigen, Modellrepräsentationen erzeugte, die fMRI-Scans von hörenden Personen ähnelten.

Seitdem wurden solche Modelle weit verbreitet, sodass McDermotts Forschungsgruppe begann, eine größere Anzahl von Modellen zu evaluieren, um festzustellen, ob die Fähigkeit, die neuronalen Repräsentationen des menschlichen Gehirns anzunähern, eine allgemeine Eigenschaft dieser Modelle ist.

Für diese Studie analysierten die Forscher neun öffentlich zugängliche tiefenneuronale Netzwerkmodelle, die für die Durchführung auditiver Aufgaben trainiert wurden, und entwickelten zusätzlich 14 eigene Modelle auf Basis zweier unterschiedlicher Architekturen. Die meisten dieser Modelle waren auf eine spezifische Aufgabe trainiert – wie Worterkennung, Sprecheridentifikation, Erkennen von Umgebungsgeräuschen und Bestimmung des Musikgenres – während zwei von ihnen auf mehrere Aufgaben trainiert wurden.

Als die Forscher diese Modelle mit natürlichen Klängen konfrontierten, die in Experimenten mit funktioneller Magnetresonanztomografie (fMRI) beim Menschen verwendet wurden, stellten sie fest, dass die internen Modellrepräsentationen Ähnlichkeiten mit denen des menschlichen Gehirns aufwiesen. Besonders die Modelle, die auf mehrere Aufgaben trainiert wurden und Hintergrundgeräusche im Trainingsmaterial enthielten, zeigten starke Übereinstimmungen mit den Gehirnreaktionen.

„Modelle, die im Lärm trainiert werden, liefern bessere Gehirnvorhersagen als solche ohne solche Trainingsbedingungen. Das ist intuitiv sinnvoll, da ein großer Teil des tatsächlichen Hörens das Verstehen von Geräuschen unter Lärmbelastung beinhaltet – und genau darauf ist das auditorische System angepasst“, erklärt Feather, einer der Studienautoren.

Hierarchische Verarbeitungsprozesse

Die Studie stärkt zudem die These, dass die menschliche Hörrinde eine hierarchische Organisation aufweist, bei der die Verarbeitung in Stufen mit unterschiedlichen rechnerischen Funktionen unterteilt ist. Wie bereits in einer früheren Studie von 2018 beobachtet, ähneln die Repräsentationen in den frühen Stadien des Modells jenen der primären Hörrinde, wohingegen Repräsentationen in späteren Stadien des Modells den Regionen jenseits der primären Rinde stärker ähneln.

Darüber hinaus entdeckten die Forscher, dass Modelle, die auf unterschiedliche Aufgaben trainiert wurden, auch verschiedene Aspekte des Hörvermögens besser replizieren konnten. So glichen beispielsweise an Sprache angelehnte Modelle den sprachselektiven Bereichen des Gehirns stärker.

„Obwohl das Modell exakt dieselben Trainingsdaten gesehen und die Architektur die gleiche ist, kann man erkennen, dass es bei der Optimierung für eine bestimmte Aufgabe bestimmte Abstimmungseigenschaften im Gehirn selektiv erklärt“, so Tuckute, eine weitere am Projekt beteiligte Forscherin.

McDermott’s Forschungsgruppe plant nun, die gewonnenen Erkenntnisse zu nutzen, um Modelle zu entwickeln, die menschliche Hirnreaktionen noch genauer reproduzieren können. Neben einem tieferen Verständnis der Hirnorganisation könnten solche Modelle auch die Entwicklung von besseren Hörgeräten, Cochlea-Implantaten und Gehirn-Computer-Schnittstellen fördern.

„Ein Ziel unseres Forschungsfeldes ist es, ein Computermodell zu erschaffen, das Gehirnreaktionen und menschliches Verhalten vorhersagen kann. Wenn uns das gelingt, werden sich viele neue Möglichkeiten eröffnen“, sagt McDermott.

Die Forschung wurde durch die National Institutes of Health, ein Amazon Fellowship vom Science Hub, ein internationales Doktorandenstipendium der American Association of University Women, ein Fellowship des MIT Friends of McGovern Institute, ein Stipendium vom K. Lisa Yang Integrative Computational Neuroscience (ICoN) Center am MIT und ein Stipendium des Department of Energy Computational Science Graduate Fellowship unterstützt.

Künstliche Intelligenz und Hörmodelle
Künstliche Intelligenz und Hörmodelle (DALL-E, IT BOLTWISE)

Hinweis: Teile dieses Textes könnten mithilfe einer Künstlichen Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.