LONDON (IT BOLTWISE) – Die zunehmende Nutzung von KI-gestützter Stimmklonung durch Cyberkriminelle erhöht die Gefahr von Vishing-Angriffen erheblich. Forscher haben herausgefunden, dass bereits fünf Minuten aufgezeichneter Audio ausreichen, um täuschend echte Stimmen zu erzeugen, die für soziale Manipulationen genutzt werden können.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

Die Bedrohung durch Vishing-Angriffe, bei denen Kriminelle Telefonanrufe nutzen, um sensible Informationen zu erlangen, nimmt mit der Verbreitung von KI-gestützter Stimmklonung erheblich zu. Forscher des NCC Group haben herausgefunden, dass bereits wenige Minuten aufgezeichneter Audio genügen, um täuschend echte Stimmen zu erzeugen. Diese Entwicklung ermöglicht es Angreifern, klassische Social-Engineering-Angriffe noch raffinierter zu gestalten und die Grenze zwischen Realität und Simulation zu verwischen.

Die Forscher betonen, dass diese Technologie nicht nur Unternehmen und deren Mitarbeiter, sondern auch Privatpersonen gefährdet. Durch die Verwendung von KI können Angreifer Stimmen von Familienmitgliedern oder Kollegen imitieren, um an persönliche Informationen, Zugangsdaten oder sensible Unternehmensdaten zu gelangen. Ein Beispiel für einen erfolgreichen Angriff ist der Vorfall bei Cisco im August, bei dem ein Mitarbeiter durch einen Vishing-Angriff getäuscht wurde, was zu einem Datenleck führte.

Frühere Einschränkungen bei der Nutzung von KI für Vishing-Angriffe bestanden darin, dass die meisten Deepfake-Technologien auf Offline-Inferenzen beschränkt waren. Diese konnten zwar gute Ergebnisse bei der Klonung vorab aufgezeichneter Stimmen erzielen, waren jedoch nicht in der Lage, Stimmen in Echtzeit zu verändern. Die Forscher des NCC Group haben jedoch ein Framework entwickelt, das diese Einschränkungen überwindet und es ermöglicht, Stimmen in Echtzeit zu klonen und zu verwenden.

Die Auswirkungen dieser Technologie sind weitreichend. Unternehmen müssen sich der Risiken bewusst sein und entsprechende Sicherheitsmaßnahmen ergreifen. Dazu gehören die Implementierung von Multi-Faktor-Authentifizierung, die Schulung von Mitarbeitern zur Verifizierung ungewöhnlicher Anfragen und die Begrenzung der öffentlichen Stimmausstrahlung, insbesondere für Führungskräfte. Auch Privatpersonen sollten wachsam sein, um nicht Opfer von Identitätsdiebstahl oder anderen Betrugsmaschen zu werden.

*Amazon-Kreditkarte ohne Jahresgebühr mit 2.000 Euro Verfügungsrahmen bestellen! a‿z




Hat Ihnen der Artikel bzw. die News - KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe
KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe".
Stichwörter AI Artificial Intelligence Cybersicherheit KI Künstliche Intelligenz Soziale Manipulation Stimmklonung Vishing
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI-gestützte Stimmklonung erhöht Risiken für Vishing-Angriffe« bei Google Deutschland suchen, bei Bing oder Google News!

    675 Leser gerade online auf IT BOLTWISE®
    KI-Jobs