MÜNCHEN (IT BOLTWISE) – Eine neue Studie zeigt auf, wie GPT-Modelle die Sprachreaktion des Gehirns vorhersagen und beeinflussen können, und eröffnet neue Perspektiven für die Forschung und Anwendung in der Künstlichen Intelligenz.


  • News von IT Boltwise® bei LinkedIn abonnieren!
  • AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
  • Neue Meldungen bequem per eMail via Newsletter erhalten!
  • IT Boltwise® bei Facebook als Fan markieren!
  • RSS-Feed 2.0 von IT Boltwise® abonnieren!

  • Mit den jüngsten Fortschritten in den Bereichen Maschinelles Lernen und Künstliche Intelligenz (KI), die in allen Feldern Anwendung finden, haben Entwicklungen in der Rechenleistung, der Zugang zu umfangreichen Datensätzen und Verbesserungen in den Techniken des Maschinellen Lernens fortschrittliche KI-Systeme ermöglicht. Large Language Models (LLMs), die enorme Datenmengen benötigen, erzeugen für viele Anwendungen menschenähnliche Sprache.

    Eine neue Studie von Forschern des MIT und der Harvard University hat neue Einblicke entwickelt, um vorherzusagen, wie das menschliche Gehirn auf Sprache reagiert. Die Forscher betonten, dass dies das erste KI-Modell sein könnte, das effektiv Reaktionen im menschlichen Sprachnetzwerk anregt und unterdrückt. Die Sprachverarbeitung umfasst Sprachnetzwerke, speziell Gehirnregionen vorwiegend in der linken Hemisphäre, einschließlich Teilen der Frontal- und Temporallappen. Es gab Forschungen, um zu verstehen, wie dieses Netzwerk funktioniert, aber vieles ist noch über die zugrunde liegenden Mechanismen, die an der Sprachverständnis beteiligt sind, unbekannt.

    Durch diese Studie versuchten die Forscher, die Wirksamkeit von LLMs bei der Vorhersage von Gehirnreaktionen auf verschiedene sprachliche Eingaben zu bewerten. Außerdem zielten sie darauf ab, die Eigenschaften von Stimuli besser zu verstehen, die Reaktionen innerhalb des Sprachnetzwerkbereichs des Menschen antreiben oder unterdrücken. Die Forscher formulierten ein Kodierungsmodell basierend auf einem GPT-Style LLM, um die Reaktionen des menschlichen Gehirns auf willkürlich präsentierte Sätze vorherzusagen. Sie bauten dieses Kodierungsmodell unter Verwendung von Last-Token-Satz-Einbettungen aus GPT2-XL auf. Es wurde an einem Datensatz von 1.000 vielfältigen, aus Korpora extrahierten Sätzen von fünf Teilnehmern trainiert. Schließlich testeten sie das Modell an ausgehaltenen Sätzen, um seine Vorhersagefähigkeiten zu bewerten. Sie kamen zu dem Schluss, dass das Modell einen Korrelationskoeffizienten von r=0,38 erreichte.

    Um die Robustheit des Modells weiter zu bewerten, führten die Forscher mehrere andere Tests mit alternativen Methoden zur Gewinnung von Satzeinbettungen durch und integrierten Einbettungen aus einer anderen LLM-Architektur. Sie fanden heraus, dass das Modell in diesen Tests eine hohe Vorhersageleistung beibehielt. Außerdem stellten sie fest, dass das Kodierungsmodell genau für die Vorhersageleistung war, wenn es auf anatomisch definierte Sprachregionen angewendet wurde.

    Die Forscher betonten, dass diese Studie und ihre Ergebnisse erhebliche Implikationen für die Grundlagenforschung in der Neurowissenschaft und für reale Anwendungen haben. Sie merkten an, dass die Manipulation neuronaler Reaktionen im Sprachnetzwerk neue Felder für die Untersuchung der Sprachverarbeitung eröffnen und potenziell Störungen, die die Sprachfunktion beeinträchtigen, behandeln könnten. Außerdem kann die Implementierung von LLMs als Modelle der menschlichen Sprachverarbeitung Technologien der natürlichen Sprachverarbeitung verbessern, wie virtuelle Assistenten und Chatbots.

    Zusammenfassend ist diese Studie ein bedeutender Schritt im Verständnis der Verbindung und Arbeitsähnlichkeit zwischen KI und dem menschlichen Gehirn. Forscher nutzen LLMs, um die Geheimnisse um die Sprachverarbeitung zu lüften und innovative Strategien zur Beeinflussung neuronaler Aktivität zu entwickeln. Es wird erwartet, dass mit der Evolution von KI und ML weitere aufregende Entdeckungen in diesem Bereich zu sehen sein werden.

    Entschlüsselung der Sprachreaktion des Gehirns: Wie GPT-Modelle neuronale Aktivität vorhersagen und beeinflussen
    Entschlüsselung der Sprachreaktion des Gehirns: Wie GPT-Modelle neuronale Aktivität vorhersagen und beeinflussen (Foto:Midjourney, IT BOLTWISE)
    Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



    Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
    Stichwörter
    Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


    {Abo}
    LinkedIn
    Facebook
    Twitter
    {Podcast}
    YouTube
    Spotify
    Apple

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



    Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.