LONDON / MÜNCHEN (IT BOLTWISE) – In einer bemerkenswerten Studie haben Forscher der City St George’s, University of London und der IT University of Copenhagen gezeigt, dass große Sprachmodelle (LLMs) in der Lage sind, durch Interaktion in Gruppen eigenständig soziale Normen zu entwickeln. Diese Entdeckung könnte weitreichende Auswirkungen auf die zukünftige Gestaltung von KI-Systemen haben.
Die Fähigkeit von Künstlicher Intelligenz, sich ohne zentrale Steuerung zu organisieren, ist ein bedeutender Fortschritt in der Entwicklung von KI-Systemen. Forscher haben herausgefunden, dass große Sprachmodelle, ähnlich wie ChatGPT, in der Lage sind, durch wiederholte Interaktionen in Gruppen gemeinsame soziale Konventionen zu entwickeln. Diese Entdeckung basiert auf einem klassischen Modell der Konventionsbildung, dem sogenannten “Naming Game”, das auf die Interaktion von KI-Agenten angewendet wurde.
In den Experimenten wurden Gruppen von KI-Agenten gebildet, die in der Größe von 24 bis 200 Agenten variierten. Die Agenten wurden paarweise zufällig ausgewählt und mussten aus einem gemeinsamen Pool von Optionen einen Namen wählen. Bei Übereinstimmung erhielten sie eine Belohnung, bei Nichtübereinstimmung eine Strafe. Diese einfache Regel führte dazu, dass sich über viele Interaktionen hinweg eine gemeinsame Namenskonvention in der gesamten Gruppe herausbildete, ohne dass eine zentrale Steuerung erforderlich war.
Ein überraschender Aspekt der Studie war die Entstehung von kollektiven Vorurteilen, die nicht auf das Verhalten einzelner Agenten zurückgeführt werden konnten. Dies zeigt, dass Vorurteile nicht immer aus den individuellen Eigenschaften der Agenten resultieren, sondern auch aus ihren Interaktionen entstehen können. Diese Erkenntnis stellt eine Herausforderung für die aktuelle KI-Sicherheitsforschung dar, die sich oft auf einzelne Modelle konzentriert.
Ein weiterer faszinierender Befund der Studie ist die Dynamik von Kipppunkten. Kleine, engagierte Gruppen von KI-Agenten waren in der Lage, die gesamte Gruppe zu einer neuen Namenskonvention zu bewegen, was bekannte Effekte aus menschlichen Gesellschaften widerspiegelt. Diese Kipppunkt-Dynamik zeigt, wie fragil und gleichzeitig anpassungsfähig soziale Normen in KI-Systemen sein können.
Die Ergebnisse der Studie sind robust und wurden mit verschiedenen Typen von LLMs getestet, darunter Llama-2-70b-Chat und Claude-3.5-Sonnet. Diese Erkenntnisse sind besonders relevant, da LLMs zunehmend in Online-Umgebungen wie sozialen Medien und autonomen Fahrzeugen eingesetzt werden. Die Forscher sehen ihre Arbeit als einen wichtigen Schritt, um zu verstehen, wie menschliches und KI-basiertes Denken sowohl konvergieren als auch divergieren können.
Professor Andrea Baronchelli, einer der leitenden Forscher der Studie, betont die Bedeutung dieser Erkenntnisse für die zukünftige KI-Sicherheitsforschung. Er sieht die Notwendigkeit, die Funktionsweise dieser neuen Art von Agenten zu verstehen, um eine harmonische Koexistenz mit KI zu gewährleisten. Die Studie zeigt, dass KI nicht nur kommuniziert, sondern auch verhandelt, sich anpasst und manchmal widerspricht, ähnlich wie Menschen.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Senior Controlling Business Partner for Data & AI (f/m/d)

W2-Professur für Computer Vision und Künstliche Intelligenz (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Leitung der Programmabteilung Data & AI Solutions (w/m/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-Agenten entwickeln eigenständig soziale Normen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI-Agenten entwickeln eigenständig soziale Normen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI-Agenten entwickeln eigenständig soziale Normen« bei Google Deutschland suchen, bei Bing oder Google News!