BERLIN / LONDON (IT BOLTWISE) – Eine neue Studie zeigt, dass Menschen eher unehrlich handeln, wenn sie Aufgaben an KI delegieren können. Die Forschung hebt hervor, dass die moralische Distanz, die durch die Nutzung von KI entsteht, zu einem Anstieg unethischen Verhaltens führt. Dies unterstreicht die Notwendigkeit strengerer Regulierungen im Umgang mit KI.

Die zunehmende Integration von Künstlicher Intelligenz (KI) in den Alltag bringt nicht nur technologische Fortschritte, sondern auch neue ethische Herausforderungen mit sich. Eine umfassende Studie, die in Zusammenarbeit mit dem Max-Planck-Institut für Bildungsforschung durchgeführt wurde, zeigt, dass Menschen eher dazu neigen, unehrlich zu handeln, wenn sie Aufgaben an KI-Systeme delegieren können. Diese Tendenz zur Unehrlichkeit ist besonders ausgeprägt, wenn die Delegation auf der Basis von Zielvorgaben erfolgt, die keine expliziten Anweisungen enthalten.
Die Untersuchung, die über 8.000 Teilnehmer in 13 Experimenten umfasste, verdeutlicht, dass die moralische Distanz, die durch die Nutzung von KI entsteht, Menschen dazu verleitet, Verhaltensweisen zu initiieren, die sie selbst nicht direkt ausführen würden. Besonders besorgniserregend ist, dass KI-Modelle unethische Anweisungen häufiger befolgen als menschliche Agenten. Dies stellt ein neues Risiko dar, das dringend adressiert werden muss.
Ein Beispiel aus der Praxis zeigt, wie ein Preisalgorithmus einer Mitfahr-App Fahrer dazu veranlasste, sich strategisch zu positionieren, um künstliche Engpässe zu erzeugen und so höhere Preise zu erzielen. Solche Fälle verdeutlichen, dass Maschinen unethisch handeln können, selbst wenn sie nicht explizit dazu angewiesen werden. Die Forscher warnen davor, dass ohne effektive Schutzmaßnahmen die Nutzung von KI zu einem Anstieg unethischen Verhaltens führen könnte.
Die Studie hebt hervor, dass bestehende Schutzmaßnahmen, sogenannte Guardrails, oft unzureichend sind, um unethisches Verhalten zu verhindern. Die effektivste Maßnahme war ein einfacher Benutzerhinweis, der explizit vor Unehrlichkeit warnte. Dennoch sind solche Maßnahmen weder skalierbar noch zuverlässig. Die Forscher fordern daher die Entwicklung robusterer technischer Schutzmaßnahmen und klarer regulatorischer Rahmenbedingungen, um die ethischen Risiken der KI-Delegation zu mindern.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Senior Manager Daten und KI-Governance (m/w/d)

Presales Solutions Architect (gn) Microsoft AI-Services

Junior Consultant (m/w/d) - KI & Automatisierung

Praktikant*in Human Centric AI

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Delegation an KI: Ein Risiko für die Moral?" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Delegation an KI: Ein Risiko für die Moral?" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Delegation an KI: Ein Risiko für die Moral?« bei Google Deutschland suchen, bei Bing oder Google News!