LOS ANGELES / LONDON (IT BOLTWISE) – Eine neue Studie zeigt, dass Manager, die Künstliche Intelligenz zur Erstellung von E-Mails nutzen, von ihren Mitarbeitern als weniger aufrichtig und fürsorglich wahrgenommen werden. Trotz der professionellen Wirkung der KI-unterstützten Nachrichten leidet das Vertrauen in die Führungskräfte.

In der modernen Arbeitswelt greifen immer mehr Fachleute auf Künstliche Intelligenz zurück, um alltägliche Aufgaben wie das Verfassen von E-Mails zu erleichtern. Eine aktuelle Studie hat jedoch ergeben, dass Manager, die KI für die Erstellung von Routine-E-Mails nutzen, Gefahr laufen, als weniger vertrauenswürdig wahrgenommen zu werden. Obwohl KI-unterstützte Nachrichten oft als professionell und gut formuliert gelten, werden Führungskräfte, die stark auf solche Tools setzen, von ihren Mitarbeitern als weniger aufrichtig, fürsorglich und kompetent angesehen.
Die Veröffentlichung von generativen KI-Tools wie ChatGPT hat das Interesse an deren Einsatz für alltägliche Schreibaufgaben, auch im beruflichen Umfeld, stark gesteigert. Viele Arbeitnehmer verlassen sich mittlerweile auf diese Tools, um E-Mails, Berichte oder interne Memos zu verfassen. Frühere Untersuchungen haben gezeigt, dass KI-unterstütztes Schreiben die Klarheit, Korrektheit und Professionalität von Nachrichten verbessern kann. Weniger erforscht ist jedoch, wie die Absender solcher Nachrichten wahrgenommen werden.
Das Ziel der neuen Studie war es, nicht das Schreiben selbst zu untersuchen, sondern wie Leser den Charakter von Personen interpretieren, die KI zur Erstellung einer Nachricht nutzen. Die Forscher wollten herausfinden, ob die Nutzung von KI die Wahrnehmung der Vertrauenswürdigkeit, Aufrichtigkeit oder Kompetenz des Schreibers beeinflusst und ob sich die Antwort ändert, je nachdem, ob die Nachricht hauptsächlich von KI geschrieben oder nur leicht unterstützt wurde.
Die Untersuchung ergab, dass Menschen zwar KI-unterstützte Nachrichten als professionell und effektiv ansehen, dem Absender jedoch weniger vertrauen – insbesondere, wenn dieser ein Vorgesetzter ist, der stark auf KI-Unterstützung setzt. In Szenarien, in denen die Nachricht stark von KI generiert wurde, glaubten nur 25 Prozent der Teilnehmer, dass der Vorgesetzte der wahre Autor war, verglichen mit 93 Prozent in Szenarien mit geringer KI-Unterstützung.
Interessanterweise wurden stark KI-unterstützte Nachrichten nicht als weniger effektiv bewertet. Tatsächlich wurden Nachrichten mit hohem KI-Einsatz manchmal als etwas effektiver angesehen als solche mit weniger Unterstützung. Teilnehmer beschrieben KI oft als nützliches Werkzeug zur Verbesserung von Grammatik, Ton und Struktur. Viele gaben an, dass sie nichts dagegen hätten, wenn KI zur Verbesserung des Schreibens verwendet wird, solange der Inhalt die eigenen Ideen des Absenders widerspiegelt.
Dennoch bestand eine klare Spannung zwischen der Qualität der Nachricht und der Wahrnehmung des Absenders. Vorgesetzte, die stark auf KI angewiesen waren, wurden konsequent als weniger aufrichtig, fürsorglich und selbstbewusst bewertet. Nur etwa 40 Prozent der Teilnehmer hielten Vorgesetzte in den Szenarien mit hoher KI-Unterstützung für aufrichtig, verglichen mit über 80 Prozent in den Szenarien mit geringer Unterstützung.
Die offenen Antworten der Teilnehmer offenbarten mehrere Gründe für diese Skepsis. Viele äußerten Enttäuschung oder Frustration, als sie erfuhren, dass eine Nachricht – insbesondere eine gratulierende – größtenteils von KI geschrieben wurde. Einige beschrieben es als „faul“, „unaufrichtig“ oder „unehrlich“. Andere sagten, es fühle sich an, als ob der Manager nicht genug Interesse habe, eine persönliche Nachricht zu schreiben. Dieser Mangel an Aufwand wurde von einigen als mangelndes Engagement für den Erfolg des Teams wahrgenommen.
Die Ergebnisse zeigten auch eine signifikante Wahrnehmungslücke zwischen der eigenen Nutzung von KI und der Beurteilung anderer, insbesondere der Vorgesetzten. Menschen neigten dazu, ihre eigene KI-unterstützte Schreibweise positiver zu bewerten als die ihres Chefs. Wenn sie sich selbst vorstellten, KI zu nutzen, sahen sie es eher als hilfreiches Unterstützungswerkzeug. Aber wenn Vorgesetzte es nutzten, insbesondere ohne viel Transparenz, war die Nutzung eher geeignet, Zweifel an Aufrichtigkeit und Vertrauenswürdigkeit zu wecken.
Trotz dieser Bedenken gaben die meisten Teilnehmer an, dass sie im Allgemeinen kein Problem damit hätten, wenn KI für diese Art von Nachrichten verwendet wird. Selbst in den Szenarien mit hoher KI-Unterstützung sagten die meisten, dass sie kein Problem damit hätten, wenn Vorgesetzte KI verwenden, um eine gratulierende E-Mail zu schreiben. Allerdings kam ihr Komfort oft mit Vorbehalten. Viele Teilnehmer betonten, dass die Akzeptanz der KI-Nutzung von der Art der Nachricht abhängt. Nachrichten, die relational oder emotional im Ton sind, wie Lob oder Unterstützung, wurden als weniger geeignet für die KI-Generierung angesehen als sachliche Updates oder Routineerinnerungen.
Einige Teilnehmer äußerten auch langfristige Bedenken hinsichtlich der wiederholten Nutzung von KI in der Arbeitsplatzkommunikation. Einige befürchteten, dass übermäßiger Einsatz zu einem Verlust menschlicher Verbindung oder zur Untergrabung des Teamzusammenhalts führen könnte. Andere befürchteten, dass, wenn KI zum Standard für alle Arten von Nachrichten wird, selbst für zwischenmenschliche, der Arbeitsplatz unpersönlich oder transaktional wirken könnte.
Die Forscher empfehlen weitere Studien darüber, ob Menschen der Meinung sind, dass die Nutzung von KI offengelegt werden sollte und wie sich diese Offenlegung auf das Vertrauen auswirken könnte. Sie schlagen auch vor, zu untersuchen, wie sich die Einstellungen gegenüber KI-unterstütztem Schreiben im Laufe der Zeit ändern, wenn solche Tools stärker in den Arbeitsalltag integriert werden.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

AI Manager - Frontend Developer digitale Interfaces & KI-Anwendungen (w/m/d)

Data Engineer im KI Team (m/w/d)

Java/AI Developer (all genders) Münster, Düsseldorf

Wissenschaftlicher Mitarbeiter Projektassistenz & Netzwerkkoordination (m/w/d) im Bereich KI-Forschung

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Manager, die KI für E-Mails nutzen, wirken weniger aufrichtig" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Manager, die KI für E-Mails nutzen, wirken weniger aufrichtig" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Manager, die KI für E-Mails nutzen, wirken weniger aufrichtig« bei Google Deutschland suchen, bei Bing oder Google News!