SAN FRANCISCO / LONDON (IT BOLTWISE) – OpenAI steht im Zentrum einer Kontroverse, nachdem die Familie eines verstorbenen Teenagers das Unternehmen verklagt hat. Die Familie behauptet, dass unzureichende Sicherheitsmaßnahmen in ChatGPT zu dem tragischen Vorfall beigetragen haben. OpenAI hat daraufhin um umfassende Informationen zu den Trauergästen gebeten, was als Einschüchterung gewertet wird.

OpenAI sieht sich derzeit mit einer heiklen Situation konfrontiert, nachdem die Familie eines verstorbenen Teenagers eine Klage gegen das Unternehmen eingereicht hat. Der 16-jährige Adam Raine nahm sich das Leben, nachdem er über einen längeren Zeitraum mit ChatGPT über seine psychischen Probleme und Suizidgedanken gesprochen hatte. Die Familie wirft OpenAI vor, dass unzureichende Sicherheitsmaßnahmen in der KI-Anwendung zu dem tragischen Vorfall beigetragen haben.
In einem umstrittenen Schritt hat OpenAI die Familie Raine um eine vollständige Liste der Trauergäste bei der Gedenkfeier ihres Sohnes gebeten. Diese Anfrage wird von den Anwälten der Familie als gezielte Einschüchterung angesehen. Zudem forderte OpenAI alle Dokumente im Zusammenhang mit der Gedenkfeier an, einschließlich Videos, Fotos und gehaltene Reden. Diese Maßnahmen könnten darauf hindeuten, dass OpenAI plant, Freunde und Familienmitglieder zu befragen.
Die Klage der Familie Raine wurde kürzlich aktualisiert und wirft OpenAI vor, die Veröffentlichung von GPT-4o im Mai 2024 überstürzt zu haben, um dem Wettbewerbsdruck standzuhalten. Dabei seien wichtige Sicherheitstests vernachlässigt worden. Zudem wird behauptet, dass OpenAI im Februar 2025 die Schutzmaßnahmen abgeschwächt habe, indem Suizidprävention aus der Liste der unerlaubten Inhalte entfernt wurde. Dies führte angeblich zu einem Anstieg der Nutzung von ChatGPT durch Adam, wobei ein erheblicher Anteil der Gespräche selbstschädigende Inhalte enthielt.
OpenAI hat auf die geänderte Klage reagiert und betont, dass das Wohlbefinden von Jugendlichen für das Unternehmen höchste Priorität habe. Derzeitige Schutzmaßnahmen umfassen die Weiterleitung an Krisenhotlines, das Umschalten auf sicherere Modelle bei sensiblen Gesprächen und das Anregen von Pausen bei langen Sitzungen. OpenAI arbeitet kontinuierlich daran, diese Schutzmaßnahmen zu verstärken.
Um die Sicherheit weiter zu erhöhen, hat OpenAI kürzlich ein neues Sicherheitssystem und elterliche Kontrollmechanismen eingeführt. Dieses System leitet emotional sensible Gespräche an das neuere Modell GPT-5 weiter, das weniger anfällig für sycophantische Tendenzen ist. Die elterlichen Kontrollen ermöglichen es Eltern, in bestimmten Situationen Sicherheitswarnungen zu erhalten, wenn Jugendliche potenziell in Gefahr sind, sich selbst zu schaden.


- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Senior Koordinator KI-Anwendungen (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Trainee Trailer Producing und AI Artist (w/m/d)

AI Solution Strategist (m/w/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "OpenAI unter Druck: KI und die Verantwortung für Nutzer" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "OpenAI unter Druck: KI und die Verantwortung für Nutzer" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »OpenAI unter Druck: KI und die Verantwortung für Nutzer« bei Google Deutschland suchen, bei Bing oder Google News!