CAMBRIDGE (MA) / MÜNCHEN (IT BOLTWISE) – Neueste Forschungen des MIT zeigen, dass maschinell lernende neuronale Netze, die akustische Aufgaben bewältigen, interne Repräsentationen erzeugen, die denen im menschlichen Gehirn ähneln. Dies könnte die Entwicklung besserer Hörgeräte, Cochlea-Implantate und Gehirn-Maschine-Schnittstellen vorantreiben.

In einer bahnbrechenden Studie haben Wissenschaftler des Massachusetts Institute of Technology (MIT) herausgefunden, dass moderne, aus maschinellem Lernen abgeleitete Computermodelle, die Struktur und Funktion des menschlichen Gehörs nachahmen, der Realisierung dieses Ziels einen Schritt näher gekommen sind.

In der bisher größten Untersuchung von tiefen neuronalen Netzwerken, die für auditorische Aufgaben ausgebildet wurden, stellte das MIT-Team fest, dass die meisten dieser Modelle interne Repräsentationen erzeugen, die Eigenschaften von Repräsentationen im menschlichen Gehirn aufweisen, wenn Menschen den gleichen Klängen lauschen.

Die Studie bietet zudem Einblick in die beste Trainingsmethode für solche Modelle: Die Forscher fanden heraus, dass Modelle, die mit akustischem Input einschließlich Hintergrundgeräusche trainiert wurden, die Aktivierungsmuster des menschlichen auditorischen Kortex besser nachahmen.

„Das Besondere an dieser Studie ist, dass sie die umfassendste Vergleichsanalyse dieser Art von Modellen mit dem auditorischen System bislang darstellt. Die Untersuchung deutet darauf hin, dass Modelle, die aus maschinellem Lernen abgeleitet sind, ein Schritt in die richtige Richtung sind und uns Hinweise darauf geben, was sie zu besseren Modellen des Gehirns macht“, erklärt Josh McDermott, ein assoziierter Professor für Gehirn- und Kognitionswissenschaften am MIT, Mitglied des McGovern Institute for Brain Research und des Center for Brains, Minds, and Machines und leitender Autor der Studie.

Greta Tuckute, Doktorandin am MIT, und Jenelle Feather, Doktorandin (PhD ’22), sind die Erstautorinnen der Open-Access-Publikation, die heute in PLOS Biology erschienen ist.

Tiefe neuronale Netzwerke sind Computermodelle, die aus vielen Ebenen von Informationseinheiten bestehen und an großen Datenmengen trainiert werden können, um spezifische Aufgaben zu bewältigen. Diese Art von Modell wird in vielen Anwendungen verwendet, und Neurowissenschaftler fangen an, die Möglichkeit zu erforschen, dass sie auch dazu verwendet werden können, zu beschreiben, wie das menschliche Gehirn bestimmte Aufgaben ausführt.

„Modelle, die mit maschinellem Lernen gebaut wurden, können Verhaltensweisen auf einem Niveau vermitteln, das mit früheren Modellen nicht möglich war. Das hat zu einem Interesse geführt, ob die Repräsentationen in den Modellen Dinge erfassen könnten, die im Gehirn passieren“, sagt Tuckute.

Ein neuronales Netzwerk generiert Aktivierungsmuster seiner Verarbeitungseinheiten als Reaktion auf jedes eingegebene Audiosignal, wie zum Beispiel ein Wort oder einen anderen Klang. Diese Modellrepräsentationen können mit den Aktivierungsmustern verglichen werden, die in fMRI-Gehirnscans von Menschen zu sehen sind, die dem gleichen Input lauschen.

2018 berichteten McDermott und der damalige Doktorand Alexander Kell, dass ein neuronales Netzwerk, das trainiert wurde, auditorische Aufgaben zu bewältigen, Modellrepräsentationen erzeugte, die fMRI-Scans von hörenden Personen ähnelten.

Seitdem wurden solche Modelle weit verbreitet, sodass McDermotts Forschungsgruppe begann, eine größere Anzahl von Modellen zu evaluieren, um festzustellen, ob die Fähigkeit, die neuronalen Repräsentationen des menschlichen Gehirns anzunähern, eine allgemeine Eigenschaft dieser Modelle ist.

Für diese Studie analysierten die Forscher neun öffentlich zugängliche tiefenneuronale Netzwerkmodelle, die für die Durchführung auditiver Aufgaben trainiert wurden, und entwickelten zusätzlich 14 eigene Modelle auf Basis zweier unterschiedlicher Architekturen. Die meisten dieser Modelle waren auf eine spezifische Aufgabe trainiert – wie Worterkennung, Sprecheridentifikation, Erkennen von Umgebungsgeräuschen und Bestimmung des Musikgenres – während zwei von ihnen auf mehrere Aufgaben trainiert wurden.

Als die Forscher diese Modelle mit natürlichen Klängen konfrontierten, die in Experimenten mit funktioneller Magnetresonanztomografie (fMRI) beim Menschen verwendet wurden, stellten sie fest, dass die internen Modellrepräsentationen Ähnlichkeiten mit denen des menschlichen Gehirns aufwiesen. Besonders die Modelle, die auf mehrere Aufgaben trainiert wurden und Hintergrundgeräusche im Trainingsmaterial enthielten, zeigten starke Übereinstimmungen mit den Gehirnreaktionen.

„Modelle, die im Lärm trainiert werden, liefern bessere Gehirnvorhersagen als solche ohne solche Trainingsbedingungen. Das ist intuitiv sinnvoll, da ein großer Teil des tatsächlichen Hörens das Verstehen von Geräuschen unter Lärmbelastung beinhaltet – und genau darauf ist das auditorische System angepasst”, erklärt Feather, einer der Studienautoren.

Hierarchische Verarbeitungsprozesse

Die Studie stärkt zudem die These, dass die menschliche Hörrinde eine hierarchische Organisation aufweist, bei der die Verarbeitung in Stufen mit unterschiedlichen rechnerischen Funktionen unterteilt ist. Wie bereits in einer früheren Studie von 2018 beobachtet, ähneln die Repräsentationen in den frühen Stadien des Modells jenen der primären Hörrinde, wohingegen Repräsentationen in späteren Stadien des Modells den Regionen jenseits der primären Rinde stärker ähneln.

Darüber hinaus entdeckten die Forscher, dass Modelle, die auf unterschiedliche Aufgaben trainiert wurden, auch verschiedene Aspekte des Hörvermögens besser replizieren konnten. So glichen beispielsweise an Sprache angelehnte Modelle den sprachselektiven Bereichen des Gehirns stärker.

„Obwohl das Modell exakt dieselben Trainingsdaten gesehen und die Architektur die gleiche ist, kann man erkennen, dass es bei der Optimierung für eine bestimmte Aufgabe bestimmte Abstimmungseigenschaften im Gehirn selektiv erklärt“, so Tuckute, eine weitere am Projekt beteiligte Forscherin.

McDermott’s Forschungsgruppe plant nun, die gewonnenen Erkenntnisse zu nutzen, um Modelle zu entwickeln, die menschliche Hirnreaktionen noch genauer reproduzieren können. Neben einem tieferen Verständnis der Hirnorganisation könnten solche Modelle auch die Entwicklung von besseren Hörgeräten, Cochlea-Implantaten und Gehirn-Computer-Schnittstellen fördern.

„Ein Ziel unseres Forschungsfeldes ist es, ein Computermodell zu erschaffen, das Gehirnreaktionen und menschliches Verhalten vorhersagen kann. Wenn uns das gelingt, werden sich viele neue Möglichkeiten eröffnen“, sagt McDermott.

Die Forschung wurde durch die National Institutes of Health, ein Amazon Fellowship vom Science Hub, ein internationales Doktorandenstipendium der American Association of University Women, ein Fellowship des MIT Friends of McGovern Institute, ein Stipendium vom K. Lisa Yang Integrative Computational Neuroscience (ICoN) Center am MIT und ein Stipendium des Department of Energy Computational Science Graduate Fellowship unterstützt.

Künstliche Intelligenz und Hörmodelle
Künstliche Intelligenz und Hörmodelle (DALL-E, IT BOLTWISE)

Hinweis: Teile dieses Textes könnten mithilfe einer Künstlichen Intelligenz generiert worden sein.









Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
  • Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
  • Kurzweil skizziert in diesem intensiven Leseerlebnis eine Zukunft, in der Mensch und Maschine untrennbar miteinander verbunden sind
  • Eine Zukunft, in der wir unser Bewusstsein auf eine höhere Ebene heben werden, in der wir uns aus virtuellen Neuronen neu erschaffen werden, in der wir länger leben, gesünder und freier sein werden als je zuvor
  • »Eine faszinierende Erkundung unserer Zukunft, die tiefgreifende philosophische Fragen aufwirft
  • « Yuval Noah HarariDank KI eröffnen sich uns in sämtlichen Lebensbereichen ungeahnte Möglichkeiten für Fortschritt, und das in exponentiellem Tempo
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
  • Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
  • Sein topaktuelles Buch über künstliche Intelligenz informiert, klärt auf – und macht klar, dass niemand vorhersehen kann, ob mit KI Rettung oder Untergang auf die Menschheit zukommt
  •  »Wir brauchen nicht darüber nachzudenken, ob eine allgemeine KI irgendwann Bewusstsein hat oder die Menschheit vernichtet – das ist Science Fiction
  • Aber über reale Risiken und Gefahren von böswilligen Menschen, die KI für ihre Zwecke missbrauchen, müssen wir nachdenken – gründlich
  • Und über die Verantwortung der reichsten Unternehmen der Welt auch
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
  • Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
  • Der Experte für KI-Implementierung im Unternehmen Dr
  • Tawia Odoi erklärt verständlich, was sich hinter KI verbirgt und welche immensen Vorteile sie gegenüber herkömmlicher Software bietet
  • Ihm geht es darum, Berührungsängste abzubauen und KI endlich zu verstehen und anzuwenden
  • Sein Buch zeigt die treibenden Kräfte auf und benennt auch mögliche Hindernisse
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
  • Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
  • Im Bereich der KI gab es in den letzten Jahren mehrere spektakuläre Durchbrüche, von alphaGo über DALL-E 2 bis ChatGPT, die so bis vor kurzem noch völlig undenkbar waren
  • Doch schon heute arbeiten Forscher an den Innovationen von morgen, wie hybrides maschinelles Lernen oder neuro-symbolische KI
  • Aber was verbirgt sich dahinter überhaupt?Anhand aktueller Forschungsergebnisse und spannender Beispiele aus der Praxis bietet dieses Sachbuch einen verständlichen Einstieg in die Grundlagen und Herausforderungen dieser faszinierenden Disziplinen
  • Sie erfahren, was Neurowissenschaft und Psychologie über die Funktionsweise des Gehirns wissen und wie Künstliche Intelligenz arbeitet
Künstliche Intelligenz und der Sinn des Lebens: Ein Essay
  • Richard David Precht beschäftigt sich mit den wichtigsten Fragen rund um das Thema »Künstliche Intelligenz« – und bezieht dabei auch die tiefgreifenden gesellschaftlichen Veränderungen durch die aktuelle Krise mit ein
  • Während die drohende Klimakatastrophe und der enorme Ressourcenverbrauch der Menschheit den Planeten zerstört, machen sich Informatiker und Ingenieure daran, die Entwicklung einer Künstlichen Intelligenz voranzutreiben, die alles das können soll, was wir Menschen auch können – nur vielfach »optimierter«
  • Ausgehend von völlig falschen Annahmen soll den Maschinen sogar eine menschenähnliche Moral einprogrammiert werden
  • Richard David Precht macht uns eindringlich klar, dass das nicht möglich ist
  • Denn unser Leben besteht nicht aus der Abfolge vorausberechneter Schritte

Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "KI-basierte Tiefenneuronale Netze als vielversprechende Modelle des menschlichen Hörvermögens".
Stichwörter Computergestützte Modelle Featured Gehirn-Maschine-Schnittstellen Gehirnforschung Hörhilfen Hörsystem Künstliche Intelligenz Maschinelles Lernen Neuronale Netze
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
Telegram
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple
#Werbung
Shirts
Bücher
Roboter
Home
AI Jobs
Bitcoin
Startups
Briefing

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-basierte Tiefenneuronale Netze als vielversprechende Modelle des menschlichen Hörvermögens" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Du möchtest über ähnliche News und Beiträge wie "KI-basierte Tiefenneuronale Netze als vielversprechende Modelle des menschlichen Hörvermögens" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.

255 Leser gerade online auf IT BOLTWISE®