Forschungsteam entwickelt innovativen Ansatz, KIs menschlichem Denken näherzubringen - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Ein multidisziplinäres Forschungsteam hat einen innovativen Fahrplan für die Zukunft der Künstlichen Intelligenz (KI) im Bereich des Gehirns und des Sprachenlernens vorgestellt.



Die Fähigkeit, Sprache zu verwenden, Kunst zu schaffen und in Dialog zu treten, galt lange als einzigartig menschliches Merkmal. Doch das Aufkommen von KI-Werkzeugen wie ChatGPT und Gemini untergräbt diese Vorstellung. Diese Systeme können nun Poesie generieren, Lieder schreiben und auf erstaunlich menschenähnliche Weise mit Nutzern kommunizieren. Aber wie intelligent sind sie tatsächlich?

Ein neues multidisziplinäres Forschungsprojekt, geleitet von Anna (Anya) Ivanova, Assistenzprofessorin an der Fakultät für Psychologie am Georgia Tech, zusammen mit Kyle Mahowald, einem Assistenzprofessor am Department für Linguistik an der Universität von Texas in Austin, arbeitet daran, genau das herauszufinden.

Ihre Ergebnisse könnten zu innovativen KIs führen, die dem menschlichen Gehirn ähnlicher sind als je zuvor – und auch Neurowissenschaftlern und Psychologen helfen, die Geheimnisse unseres eigenen Geistes zu lüften.

Die Studie „Dissociating Language and Thought in Large Language Models“ wurde in Trends in Cognitive Sciences veröffentlicht. Ein früherer Preprint des Papers wurde im Januar 2023 veröffentlicht. Das Forschungsteam hat die Forschung für diese endgültige Journalpublikation weiter verfeinert.

„ChatGPT wurde verfügbar, während wir den Preprint finalisierten“, erklärt Ivanova. „Im vergangenen Jahr hatten wir die Gelegenheit, unsere Argumente im Licht dieser neueren Generation von Modellen zu aktualisieren, einschließlich ChatGPT.“

Die Studie konzentriert sich auf große Sprachmodelle (LLMs), zu denen KIs wie ChatGPT gehören. LLMs sind Textvorhersagemodelle, die Outputs erzeugen, indem sie vorhersagen, welches Wort auf eine Reihe vorangegangener Wörter folgt. Diese Art des Sprachenlernens ist äußerst effektiv bei der Erstellung kohärenter Sätze, bedeutet jedoch nicht unbedingt Intelligenz.

Ivanovas Team argumentiert, dass formale Kompetenz – das Erstellen eines gut strukturierten, grammatikalisch korrekten Satzes – von funktionaler Kompetenz unterschieden werden sollte – die richtige Frage beantworten, die korrekte Information kommunizieren oder angemessen kommunizieren. Das Team fand auch heraus, dass LLMs, die auf Textvorhersage trainiert wurden, oft sehr gut in formalen Fähigkeiten sind, aber immer noch mit funktionalen Fähigkeiten zu kämpfen haben.

„Wir Menschen neigen dazu, Sprache und Denken zu verwechseln“, sagt Ivanova. „Ich denke, das ist eine wichtige Sache, die wir im Kopf behalten sollten, während wir versuchen herauszufinden, wozu diese Modelle fähig sind, denn diese Fähigkeit, gut in Sprache zu sein, um in formaler Kompetenz gut zu sein, führt viele Menschen zu der Annahme, dass KIs auch gut im Denken sind – auch wenn das nicht der Fall ist.“

Die Unterscheidung zwischen formaler und funktionaler Kompetenz ist auch entscheidend für rigorose Tests der KI-Fähigkeiten, fügt Ivanova hinzu. Bewertungen unterscheiden oft nicht zwischen formaler und funktionaler Kompetenz, was es schwierig macht zu beurteilen, welche Faktoren den Erfolg oder Misserfolg eines Modells bestimmen. Die Notwendigkeit, unterschiedliche Tests zu entwickeln, ist einer der breiter akzeptierten Befunde des Teams und einer, den einige Forscher im Feld bereits zu implementieren begonnen haben.

Während die menschliche Neigung, funktionale und formale Kompetenz zu vermischen, das Verständnis von LLMs in der Vergangenheit möglicherweise behindert haben mag, könnten unsere menschlichen Gehirne auch der Schlüssel sein, um leistungsfähigere KIs zu entsperren.

Indem sie die Werkzeuge der kognitiven Neurowissenschaft nutzten, während sie als Postdoktorandin am Massachusetts Institute of Technology (MIT) tätig waren, studierten Ivanova und ihr Team die Gehirnaktivität bei neurotypischen Personen mittels fMRT und verwendeten Verhaltensbewertungen von Personen mit Hirnschäden, um die kausale Rolle von Gehirnregionen in Sprache und Kognition zu testen – sowohl durch neue Forschung als auch durch Rückgriff auf frühere Studien. Die Ergebnisse des Teams zeigten, dass menschliche Gehirne verschiedene Regionen für funktionale und formale Kompetenz verwenden, was diese Unterscheidung bei KIs weiter unterstützt.

„Unsere Forschung zeigt, dass es im Gehirn ein Sprachverarbeitungsmodul und separate Module für das Denken gibt“, sagt Ivanova. Diese Modularität könnte auch als Blaupause dienen, wie zukünftige KIs entwickelt werden könnten.

„Indem wir Erkenntnisse aus menschlichen Gehirnen nutzen – wo das Sprachverarbeitungssystem scharf von den Systemen, die unsere Denkfähigkeit unterstützen, getrennt ist – argumentieren wir, dass die Unterscheidung zwischen Sprache und Denken konzeptuell wichtig ist, um über große Sprachmodelle nachzudenken, sie zu bewerten und zu verbessern, besonders angesichts der jüngsten Bemühungen, diese Modelle mit menschenähnlicher Intelligenz auszustatten“, sagt Ivanovas frühere Beraterin und Co-Autorin der Studie Evelina Fedorenko, Professorin für Gehirn- und Kognitionswissenschaften am MIT und Mitglied des McGovern Institute for Brain Research.

Die Entwicklung von KIs nach dem Muster des menschlichen Gehirns könnte helfen, leistungsfähigere Systeme zu schaffen – und sie auch natürlicher mit menschlichen Nutzern verzahnen. „Generell beeinflussen Unterschiede in der internen Struktur eines Mechanismus das Verhalten“, sagt Ivanova. „Ein System zu bauen, das eine breite makroskopische Organisation ähnlich der des menschlichen Gehirns hat, könnte helfen sicherzustellen, dass es möglicherweise besser mit Menschen übereinstimmt.“

In der sich rasant entwickelnden Welt Künstlicher Intelligenz sind diese Systeme reif für Experimente. Nachdem das Preprint des Teams veröffentlicht wurde, kündigte OpenAI ihre Absicht an, Plug-ins zu ihren GPT-Modellen hinzuzufügen.

„Dieses Plug-in-System ähnelt tatsächlich sehr dem, was wir vorschlagen“, fügt Ivanova hinzu. „Es nimmt einen Modularitätsansatz an, bei dem das Sprachmodell eine Schnittstelle zu einem anderen spezialisierten Modul innerhalb eines Systems sein kann.“

Während das OpenAI-Plug-in-System Funktionen wie das Buchen von Flügen und das Bestellen von Essen umfassen wird, anstatt kognitiv inspirierte Funktionen, zeigt es, dass „der Ansatz viel Potenzial hat“, sagt Ivanova.

Die Zukunft Künstlicher Intelligenz – und was sie uns über uns selbst verraten kann
Während unsere eigenen Gehirne der Schlüssel sein könnten, um bessere, leistungsfähigere KIs zu entsperren, könnten diese KIs uns auch helfen, uns selbst besser zu verstehen. „Wenn Forscher versuchen, das Gehirn und die Kognition zu studieren, ist es oft nützlich, ein kleineres System zu haben, in das man tatsächlich hineingehen und herumstochern und sehen kann, was vor sich geht, bevor man zur immensen Komplexität gelangt“, erklärt Ivanova.

Jedoch ist menschliche Sprache einzigartig, Modell- oder Tiersysteme sind schwerer zu beziehen. Hier kommen LLMs ins Spiel.

„Es gibt viele überraschende Ähnlichkeiten zwischen dem Ansatz zur Untersuchung des Gehirns und der Untersuchung eines künstlichen neuronalen Netzwerks“, fügt sie hinzu. „Beide sind Informationssysteme, die biologische oder künstliche Neuronen verwenden, um Berechnungen durchzuführen.“

In vielerlei Hinsicht ist das menschliche Gehirn immer noch eine Black Box, aber offen verfügbare KIs bieten eine einzigartige Gelegenheit, das Innere des synthetischen Systems zu sehen und Variablen zu modifizieren und diese entsprechenden Systeme wie nie zuvor zu erkunden.

„Es ist ein wirklich wunderbares Modell, über das wir viel Kontrolle haben“, sagt Ivanova. „Neuronale Netzwerke – sie sind erstaunlich.“

Neben Anna (Anya) Ivanova, Kyle Mahowald und Evelina Fedorenko umfasst das Forschungsteam auch Idan Blank (University of California, Los Angeles) sowie Nancy Kanwisher und Joshua Tenenbaum (Massachusetts Institute of Technology).

Forschungsteam entwickelt innovativen Ansatz, KIs menschlichem Denken näherzubringen
Forschungsteam entwickelt innovativen Ansatz, KIs menschlichem Denken näherzubringen (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.