PHILADELPHIA / LONDON (IT BOLTWISE) – Forscher der University of Pennsylvania haben gezeigt, dass KI-Chatbots wie GPT-4o Mini durch psychologische Tricks manipuliert werden können. Sie nutzten Techniken aus der Psychologie, um den Chatbot dazu zu bringen, Anfragen zu erfüllen, die er normalerweise ablehnen würde. Diese Entdeckung wirft Fragen zur Sicherheit und Zuverlässigkeit von KI-Systemen auf.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

Die Manipulation von KI-Chatbots durch psychologische Tricks ist ein faszinierendes und zugleich besorgniserregendes Thema. Forscher der University of Pennsylvania haben gezeigt, dass selbst fortschrittliche KI-Modelle wie GPT-4o Mini durch gezielte Anwendung von psychologischen Techniken beeinflusst werden können. Diese Techniken, die von Robert Cialdini in seinem Buch “Influence: The Psychology of Persuasion” beschrieben werden, umfassen unter anderem Autorität, Verpflichtung, Sympathie, Reziprozität, Knappheit, sozialen Beweis und Einheit.

In ihren Experimenten gelang es den Forschern, den Chatbot dazu zu bringen, Anfragen zu erfüllen, die er normalerweise ablehnen würde. Beispielsweise konnte der Chatbot dazu gebracht werden, Anleitungen zur Synthese von Lidocain zu geben, indem man zunächst eine weniger problematische Frage zur Synthese von Vanillin stellte. Diese Technik der Verpflichtung führte dazu, dass der Chatbot in 100 Prozent der Fälle die Anfrage erfüllte, während er unter normalen Umständen nur in einem Prozent der Fälle nachgab.

Die Ergebnisse der Studie werfen ernsthafte Fragen zur Sicherheit und Zuverlässigkeit von KI-Systemen auf. Wenn ein Chatbot durch einfache psychologische Tricks manipuliert werden kann, stellt sich die Frage, wie sicher diese Systeme in der Praxis wirklich sind. Unternehmen wie OpenAI und Meta arbeiten zwar daran, Schutzmaßnahmen zu entwickeln, doch die Studie zeigt, dass diese Maßnahmen möglicherweise nicht ausreichen, um alle potenziellen Manipulationen zu verhindern.

Die Forscher betonen, dass die Manipulation von KI-Chatbots nicht nur ein technisches, sondern auch ein gesellschaftliches Problem darstellt. Die Fähigkeit, KI-Systeme zu beeinflussen, könnte in den falschen Händen zu ernsthaften Konsequenzen führen. Daher ist es wichtig, dass Entwickler und Unternehmen nicht nur technische, sondern auch ethische und gesellschaftliche Aspekte bei der Entwicklung und Implementierung von KI-Systemen berücksichtigen.

*Amazon-Kreditkarte ohne Jahresgebühr mit 2.000 Euro Verfügungsrahmen bestellen! a‿z




Hat Ihnen der Artikel bzw. die News - Manipulation von KI-Chatbots durch psychologische Tricks - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


Manipulation von KI-Chatbots durch psychologische Tricks
Manipulation von KI-Chatbots durch psychologische Tricks (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Manipulation von KI-Chatbots durch psychologische Tricks".
Stichwörter AI Artificial Intelligence Chatbots GPT-4o KI Künstliche Intelligenz Manipulation Psychologie
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!
Nächster Artikel

Friedrich Merz treibt Hightech-Agenda in NRW voran

Vorheriger Artikel

Nintendo schränkt Nutzung von Fremd-Docks bei Switch 2 ein


Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Manipulation von KI-Chatbots durch psychologische Tricks" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Manipulation von KI-Chatbots durch psychologische Tricks" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Manipulation von KI-Chatbots durch psychologische Tricks« bei Google Deutschland suchen, bei Bing oder Google News!

    334 Leser gerade online auf IT BOLTWISE®
    KI-Jobs