SEOUL / LONDON (IT BOLTWISE) – Die rasante Entwicklung der Künstlichen Intelligenz hat nicht nur positive Auswirkungen auf die Technologiebranche, sondern birgt auch Risiken, insbesondere im Bereich der Sprachmanipulation. Ein neuer Ansatz, bekannt als maschinelles Entlernen, könnte helfen, diese Risiken zu minimieren.

Die Fortschritte in der Künstlichen Intelligenz (KI) haben die Möglichkeiten der Sprachmanipulation erheblich erweitert. Insbesondere die Fähigkeit, Stimmen zu kopieren und zu manipulieren, hat zu einer Zunahme von Audio-Deep-Fakes geführt, die für Betrug und die Verbreitung von Fake-News genutzt werden können. Ein innovativer Ansatz, das sogenannte maschinelle Entlernen, könnte eine Lösung bieten, um diese Bedrohungen zu mindern.
Maschinelles Entlernen ist eine Technik, die KI-Modelle dazu befähigt, bestimmte Informationen zu vergessen. Dies könnte entscheidend sein, um die Verbreitung von Deep-Fakes zu stoppen, indem verhindert wird, dass KI-Modelle Stimmen reproduzieren, die sie nicht nachahmen sollen. Jong Hwan Ko, Professor an der Sungkyunkwan University in Korea, und sein Team haben diese Technik erstmals auf die Spracherzeugung angewandt.
Die Herausforderung besteht darin, dass aktuelle Sprachmodelle, sogenannte Zero-Shot-Modelle, in der Lage sind, Stimmen zu imitieren, die nicht im Trainingssatz enthalten sind. Das bedeutet, dass ein Modell nicht nur trainierte Stimmen vergessen muss, sondern auch lernen muss, bestimmte Stimmen nicht nachzuahmen, die es nicht kennt. Gleichzeitig muss es weiterhin in der Lage sein, andere Stimmen korrekt zu imitieren.
Um dies zu demonstrieren, hat das Team um Ko eine Nachbildung des VoiceBox-Modells von Meta entwickelt, das auf die Aufforderung, eine bestimmte Stimme zu imitieren, mit einer zufälligen Stimme antwortet. Diese Technik führte dazu, dass die Fähigkeit des Modells, eine vergessene Stimme zu imitieren, um mehr als 75 Prozent reduziert wurde. Dies zeigt, dass das Modell die unerwünschte Stimme effektiv vergessen hat.
Die Implementierung des maschinellen Entlernens ist jedoch nicht ohne Herausforderungen. Der Prozess kann mehrere Tage dauern und erfordert für jede zu vergessende Stimme einen etwa fünf Minuten langen Audioclip. Zudem kann die Vergesslichkeit des Modells die Fähigkeit beeinträchtigen, erlaubte Stimmen zu imitieren, was einen Kompromiss zwischen Effizienz und Vergesslichkeit darstellt.
Die Industrie zeigt Interesse an dieser Technik, da sie das Potenzial hat, KI-Modelle sicherer zu machen. Unternehmen wie Meta und Google DeepMind erforschen bereits die Möglichkeiten des maschinellen Entlernens. Dennoch ist es wichtig, schnellere und skalierbarere Lösungen zu entwickeln, um diese Technik in realen Anwendungen einsetzen zu können.
Die Zukunft des maschinellen Entlernens könnte entscheidend für die Sicherheit von KI-Systemen sein. Während die Technik noch in den Kinderschuhen steckt, zeigt sie bereits vielversprechende Ergebnisse. Die Forscher sind optimistisch, dass ihre Arbeit eines Tages dazu beitragen könnte, die Verbreitung von Deep-Fakes zu verhindern und die Integrität von KI-gestützten Systemen zu gewährleisten.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Software Architect AI (all genders)

Lead AI Engineer - Digital Product Development (f/m/x)

Professional (m/w/d) für KI im Bereich Vertrieb im Groß- und Einzelhandel

Studentische Hilfskraft (gn*) KI-Forschungsprojekt – Augenheilkunde

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Wie maschinelles Entlernen KI-Modelle sicherer machen könnte" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Wie maschinelles Entlernen KI-Modelle sicherer machen könnte" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Wie maschinelles Entlernen KI-Modelle sicherer machen könnte« bei Google Deutschland suchen, bei Bing oder Google News!