MÜNCHEN / LONDON (IT BOLTWISE) – Künstliche Intelligenz ist nicht frei von Vorurteilen. Eine aktuelle Studie zeigt, wie Sprachmodelle wie ChatGPT regionale Klischees über Ostdeutschland verstärken. Forscherinnen der Hochschule München haben untersucht, wie diese Modelle Eigenschaften von Menschen in verschiedenen Bundesländern bewerten.

Künstliche Intelligenz (KI) ist in vielen Bereichen unseres Lebens präsent, doch sie ist nicht so neutral, wie man vielleicht denkt. Sprachmodelle wie ChatGPT, die auf großen Datenmengen trainiert werden, können bestehende Vorurteile und Klischees verstärken. Eine aktuelle Untersuchung von Anna Kruspe und Mila Stillman von der Hochschule München beleuchtet, wie solche Modelle mit regionalen Vorurteilen in Deutschland umgehen.
Die Forscherinnen vermuteten, dass KI-Modelle nicht nur globale, sondern auch regionale Vorurteile reproduzieren könnten. Um dies zu überprüfen, baten sie die Modelle, Eigenschaften wie die “Attraktivität” der Menschen in jedem deutschen Bundesland zu bewerten. Die Ergebnisse zeigten, dass die Modelle tatsächlich bestehende Klischees über Ostdeutsche verstärkten, indem sie ihnen weniger positive Eigenschaften zuschrieben.
Diese Erkenntnisse werfen ein Licht auf die Herausforderungen, die mit der Nutzung von KI in sensiblen Bereichen verbunden sind. Wenn KI-Modelle auf Daten trainiert werden, die Vorurteile enthalten, können sie diese unbewusst übernehmen und verstärken. Dies ist besonders problematisch, da KI zunehmend in Entscheidungsprozesse integriert wird, die das Leben von Menschen direkt beeinflussen.
Die Untersuchung von Kruspe und Stillman zeigt, dass es notwendig ist, die Trainingsdaten von KI-Modellen kritisch zu hinterfragen und zu prüfen. Nur so kann sichergestellt werden, dass KI fair und unvoreingenommen agiert. Dies ist nicht nur eine technische, sondern auch eine gesellschaftliche Herausforderung, die in Zukunft noch an Bedeutung gewinnen wird.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

(Senior) Business AI Adoption Specialist (f/m/d) for the SAP AI Unit

Mitarbeiter Data Analytics (m/w/d) Data Science im Bereich RSA und KI

Werkstudent Projektmanagement KI (w/m/d)

AI Agent Engineer (m/w/d) – Google Cloud Fokus

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Wie KI Vorurteile über Ostdeutsche verstärkt" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Wie KI Vorurteile über Ostdeutsche verstärkt" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Wie KI Vorurteile über Ostdeutsche verstärkt« bei Google Deutschland suchen, bei Bing oder Google News!