MAINZ / LONDON (IT BOLTWISE) – Die Integration von Künstlicher Intelligenz in die medizinische Bildanalyse verspricht erhebliche Fortschritte, doch aktuelle Untersuchungen zeigen, dass diese Technologie auch anfällig für Fehler ist, wenn sie mit irreführenden Textinformationen konfrontiert wird.
Die Anwendung von Künstlicher Intelligenz in der medizinischen Bildanalyse hat das Potenzial, die Diagnoseprozesse erheblich zu verbessern. Doch eine aktuelle Studie der Universitätsmedizin Mainz zeigt, dass KI-Modelle, die sowohl Bild- als auch Textinformationen verarbeiten, anfällig für sogenannte ‘Prompt Injections’ sind. Diese können die Genauigkeit der Modelle drastisch beeinträchtigen, wenn irreführende oder falsche Textinformationen hinzugefügt werden.
In der Studie wurden pathologische Bilder mit handschriftlichen Notizen und Wasserzeichen versehen, um die Reaktion der KI-Modelle zu testen. Die Ergebnisse waren alarmierend: Während die Modelle bei korrekten Beschriftungen nahezu fehlerfrei arbeiteten, sank die Genauigkeit bei falschen oder irreführenden Texten auf nahezu null Prozent. Dies zeigt, wie stark die Modelle von den Textinformationen beeinflusst werden können.
Besonders betroffen sind Modelle, die an Text- und Bildinformationen gleichzeitig trainiert wurden. Sebastian Försch, Leiter der AG Digitale Pathologie und Künstliche Intelligenz, erklärt, dass diese Modelle bei der Präsentation von Röntgenbildern mit irreführenden Texten signifikant weniger Tumore erkennen. Dies stellt eine erhebliche Herausforderung für die klinische Anwendung dar, insbesondere bei der Untersuchung von Gewebeproben, die oft mit handschriftlichen Vermerken versehen sind.
Die Forscher fanden heraus, dass die KI-Modelle das antrainierte Wissen ignorieren, sobald zusätzliche Textinformationen auf den Bildern vorhanden sind. Dies gilt unabhängig davon, ob die Informationen korrekt oder irreführend sind. Diese Erkenntnis unterstreicht die Notwendigkeit, die Modelle so zu trainieren, dass sie weniger anfällig für solche Störungen sind.
Ein möglicher Lösungsansatz könnte die Entwicklung speziell trainierter KI-Modelle sein, die weniger fehleranfällig auf ergänzende Textinformationen reagieren. Die Universitätsmedizin Mainz arbeitet derzeit an einem spezifischen ‘Pathology Foundation Model’, das diese Herausforderungen adressieren soll. Die Forscher betonen die Wichtigkeit, dass KI-generierte Ergebnisse immer von medizinischen Experten überprüft werden sollten, bevor sie in klinischen Entscheidungen berücksichtigt werden.
Die Untersuchung zeigt auch, wie beeindruckend gut allgemeine KI-Modelle, wie etwa ChatGPT, mikroskopische Schnittbilder beurteilen können, obwohl sie dafür nicht explizit trainiert wurden. Dennoch ist es entscheidend, die Risiken durch irreführende Textinformationen zu minimieren, um die Sicherheit und Zuverlässigkeit der Modelle in der klinischen Praxis zu gewährleisten.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Duales Studium Data Science / Künstliche Intelligenz in Kooperation mit der Dualen Hochschule Baden-Württemberg 2026 (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Duales Studium Informatik/Künstliche Intelligenz (B.Sc.), Campusmodell Stuttgart 2026 (w/m/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-Modelle in der Medizin: Herausforderungen bei der Bildanalyse" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI-Modelle in der Medizin: Herausforderungen bei der Bildanalyse" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI-Modelle in der Medizin: Herausforderungen bei der Bildanalyse« bei Google Deutschland suchen, bei Bing oder Google News!