MÜNCHEN (IT BOLTWISE) – Die Fähigkeit von Künstlicher Intelligenz, rassische Kategorien aus Herzscans zu erkennen, wirft neue Fragen zur Objektivität und den ethischen Implikationen von KI in der Medizin auf.
Die jüngsten Fortschritte in der Künstlichen Intelligenz haben zu einer bemerkenswerten Entdeckung geführt: Ein KI-Modell kann mit einer Genauigkeit von bis zu 96 % vorhersagen, ob eine Person als Schwarz oder Weiß identifiziert wird, basierend auf Herzscans. Diese Fähigkeit wirft nicht nur Fragen zur Objektivität der KI auf, sondern auch zu den zugrunde liegenden Vorurteilen, die in den Daten enthalten sind, auf denen diese Systeme trainiert werden.
Es ist wichtig zu betonen, dass Rasse keine biologische Kategorie ist. Moderne Genetik zeigt, dass es innerhalb vermeintlicher Rassengruppen mehr Variation gibt als zwischen ihnen. Rasse ist vielmehr ein soziales Konstrukt, das von Gesellschaften erfunden wurde, um Menschen basierend auf wahrgenommenen physischen Merkmalen und Abstammung zu klassifizieren. Diese Klassifikationen beeinflussen jedoch das tägliche Leben und den Zugang zu medizinischer Versorgung erheblich.
In der medizinischen Praxis werden KI-Systeme zunehmend eingesetzt, um Effizienz zu steigern und Kosten zu senken. Sie analysieren Röntgenbilder, lesen Herzscans und identifizieren potenzielle Probleme schneller als menschliche Ärzte. Doch trotz ihrer Effizienz sind diese Systeme nicht neutral. Sie werden mit realen Daten trainiert, die reale Ungleichheiten widerspiegeln, einschließlich solcher, die auf Rasse, Geschlecht, Alter und sozioökonomischem Status basieren.
Ein Hauptproblem ist das unausgewogene Training der Daten. Wenn ein Modell hauptsächlich von Patienten mit heller Haut lernt, kann es Schwierigkeiten haben, Bedingungen bei Menschen mit dunklerer Haut zu erkennen. Studien in der Dermatologie haben dieses Problem bereits aufgezeigt. Auch Sprachmodelle wie ChatGPT sind nicht immun: Eine Studie fand heraus, dass einige Modelle veraltete und falsche medizinische Überzeugungen reproduzieren.
Ein weiteres Problem ist das sogenannte Shortcut-Learning, bei dem Modelle scheinbar genaue Vorhersagen treffen, aber aus den falschen Gründen. Statt die komplexen Merkmale einer Krankheit zu lernen, verlassen sie sich auf irrelevante, aber leichter erkennbare Hinweise in den Daten. Dies kann dazu führen, dass ein Modell Rasse identifiziert, anstatt die Krankheit, was gefährliche Konsequenzen haben kann.
In der Herzscan-Studie konzentrierte sich das KI-Modell nicht auf das Herz selbst, sondern auf Bereiche außerhalb des Herzens, wie subkutanes Fett und Bildartefakte. Diese Artefakte stammen oft vom Scanner und können beeinflussen, wie die KI den Scan interpretiert. Dies zeigt, dass die KI möglicherweise indirekte rassische Signale aufnimmt, anstatt relevante Informationen über das Herz selbst.
Um diese Herausforderungen zu bewältigen, gibt es mehrere Lösungsansätze. Eine Diversifizierung der Trainingsdaten kann die Leistung der KI über verschiedene Gruppen hinweg verbessern, ohne die Genauigkeit für andere zu beeinträchtigen. Transparenz ist ebenfalls entscheidend: Erklärbare KI, die zeigt, welche Teile eines Bildes die Entscheidung der KI beeinflussen, kann helfen, unangemessene Abkürzungen zu erkennen.
Die sorgfältige Behandlung von Rasse in Daten ist unerlässlich. Entwickler müssen erkennen, dass Rasse ein soziales Signal ist und kein biologischer Fakt. Wenn KI-Systeme unsere Abkürzungen lernen, könnten sie unsere Fehler wiederholen – schneller, im großen Maßstab und mit weniger Verantwortung. Und wenn Leben auf dem Spiel stehen, ist das ein Risiko, das wir uns nicht leisten können.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Werkstudent - Automatisierung mit Robotics/KI (m/w/d)

W2-Professur Computer Graphics and AI in Game Development and Extended Reality (m/w/d)

Werkstudententätigkeit im Bereich der Entwicklungs-IT CAD, VR/AR/XR, Big Data/AI ab Juli 2025

(Senior) SAP AI Consultant (m/w/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI erkennt rassische Kategorien aus Herzscans: Chancen und Risiken" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI erkennt rassische Kategorien aus Herzscans: Chancen und Risiken" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI erkennt rassische Kategorien aus Herzscans: Chancen und Risiken« bei Google Deutschland suchen, bei Bing oder Google News!