OXFORD / LONDON (IT BOLTWISE) – Forscher entwickeln selektives KI-Training mit ungefährlichen Daten, um Missbrauch zu verhindern und die Sicherheit von generativen Modellen zu erhöhen.

Die Entwicklung von Künstlicher Intelligenz (KI) steht vor einer bedeutenden Herausforderung: dem Schutz vor Missbrauch. Forscher der University of Oxford, EleutherAI und des UK AI Security Institute haben eine innovative Methode entwickelt, um dieses Problem anzugehen. Anstatt nachträglich Filter in KI-Systeme zu integrieren, setzen sie auf ein selektives Training mit ausschließlich ungefährlichen Daten. Diese Vorgehensweise soll verhindern, dass die KI für schädliche Zwecke missbraucht wird.
Generative KI-Modelle, wie sie in Anwendungen wie ChatGPT zum Einsatz kommen, sind vielseitig einsetzbar. Sie können jedoch auch für unerwünschte Zwecke genutzt werden, etwa um gefährliche Anleitungen zu erstellen. Bisherige Sicherheitsmaßnahmen, wie das Einbauen von Filtern, haben sich als nicht vollständig zuverlässig erwiesen. Die neue Methode der Forscher zielt darauf ab, das Risiko von Missbrauch bereits im Trainingsprozess zu minimieren.
Ein zentraler Aspekt der Studie war die Vermeidung von Biothreats, also Bedrohungen durch biologische Stoffe. Das modifizierte KI-Modell wurde mit 25.000 Artikeln zu Themen wie Virologie und Biowaffen trainiert und zeigte sich dabei deutlich widerstandsfähiger gegen Manipulationen als bisherige Ansätze. Diese robuste Filterung der Trainingsdaten erwies sich als effektiv, selbst unter fortlaufenden Angriffen.
Die Forscher betonen, dass die Entwicklung robuster Schutzmaßnahmen gegen die Manipulation von KI-Modellen von entscheidender Bedeutung ist. Da offene Modelle von jedermann heruntergeladen und verändert werden können, ist es wichtig, dass die Sicherheitsvorkehrungen bereits im Trainingsprozess integriert werden. Diese neue Methode könnte einen wichtigen Beitrag zur sicheren Nutzung von KI-Technologien leisten und das Vertrauen in deren Einsatz stärken.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

AI Product Owner (w/m/d)

Senior Solution Architect - Data Analytics & AI (w/m/d)

Duales Studium – Data Science und Künstliche Intelligenz (m/w/x), Beginn Herbst 2026

Senior IT-Consultant KI-Systeme (all genders)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Selektives KI-Training als Schutz vor Missbrauch" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Selektives KI-Training als Schutz vor Missbrauch" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Selektives KI-Training als Schutz vor Missbrauch« bei Google Deutschland suchen, bei Bing oder Google News!