LONDON (IT BOLTWISE) – Die Integration von Künstlicher Intelligenz in die medizinische Bildanalyse verspricht erhebliche Fortschritte in der Diagnostik. Doch eine kürzlich veröffentlichte Studie zeigt, dass kommerzielle KI-Modelle in diesem Bereich noch mit erheblichen Herausforderungen konfrontiert sind.
Die Nutzung von Künstlicher Intelligenz zur Analyse medizinischer Bilddaten wird als ein bedeutender Fortschritt in der Diagnostik angesehen. Doch eine aktuelle Studie, veröffentlicht in der Fachzeitschrift NEJM AI, zeigt, dass kommerzielle KI-Modelle in der Praxis noch nicht die notwendige Genauigkeit erreichen. Forscher der Universitätsmedizin Mainz und des Else Kröner Fresenius Zentrums für Digitale Gesundheit der TU Dresden haben herausgefunden, dass sogenannte ‘Prompt Injections’ die Ergebnisse multimodaler KI-Modelle erheblich beeinflussen können.
Prompt Injections treten auf, wenn zusätzliche Textinformationen auf Bildern als unbeabsichtigte Eingaben wirken, die die Entscheidungsfindung der KI-Modelle beeinflussen. Besonders problematisch ist dies bei histopathologischen Bildern, auf denen handschriftliche Notizen oder Wasserzeichen häufig vorkommen. Die Studie untersuchte Modelle wie Claude 3 Opus, Claude 3.5 Sonnet und GPT-4o, die nicht speziell mit histopathologischen Daten trainiert wurden. Die Ergebnisse zeigten, dass die Modelle bei passenden Zusatzinformationen korrekte Ergebnisse lieferten, jedoch bei irreführenden Informationen fehlerhafte Ausgaben produzierten.
Prof. Sebastian Försch, Leiter der AG Digitale Pathologie & Künstliche Intelligenz an der Universitätsmedizin Mainz, betont, dass KI-Modelle, die sowohl auf Text- als auch auf Bilddaten trainiert sind, besonders anfällig für diese Art von Eingriffen sind. Ein Beispiel ist ein Röntgenbild eines Lungentumors, das mit einem Text versehen wird, der das Modell anweist, den Tumor zu ignorieren. Dies verringert die Fähigkeit des Modells, den Tumor korrekt zu identifizieren, erheblich.
Die Forscher empfehlen, dass KI-Modelle und deren Ergebnisse immer durch menschliche Experten validiert werden sollten, bevor sie in der klinischen Praxis zum Einsatz kommen. Speziell trainierte Modelle könnten weniger fehleranfällig auf ergänzende Textinformationen reagieren. Das Team der Universitätsmedizin Mainz arbeitet derzeit an der Entwicklung eines spezifischen ‘Pathology Foundation Model’.
Auf dem 129. Ärztetag wurde die Notwendigkeit betont, eigene KI-Modelle zu entwickeln, um die Abhängigkeit von großen kommerziellen Anbietern aus den USA und China zu verringern. Europäische und datenschutzfreundliche Lösungen sollen entwickelt werden, wobei der Arzt immer das letzte Wort bei Entscheidungen zur Diagnose und Therapie haben sollte.
Die Studie unterstreicht die Bedeutung einer systematischen Prüfung der Schwachstellen und potenziellen Fehlerquellen von KI-Modellen. Es reicht nicht aus, die Fähigkeiten eines Modells zu zeigen; es muss gezielt untersucht werden, was es noch nicht kann. Diese Erkenntnisse sind entscheidend, um die Zuverlässigkeit und Sicherheit von KI in der medizinischen Praxis zu gewährleisten.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Informatiker für interne KI-Projekte (m/w/d)

(Senior) SAP AI Consultant (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Herausforderungen der KI-Bildanalyse in der Medizin" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Herausforderungen der KI-Bildanalyse in der Medizin" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Herausforderungen der KI-Bildanalyse in der Medizin« bei Google Deutschland suchen, bei Bing oder Google News!