OpenAI kündigt Vertrauenskontakt-Funktion und verbesserte Erkennung von Notlagen an, während sich Klagen zu psychischer Gesundheit vor kalifornischem Gericht konsolidieren. Neue Fälle erwartet. (Mehr lesenOpenAI kündigt Vertrauenskontakt-Funktion und verbesserte Erkennung von Notlagen an, während sich Klagen zu psychischer Gesundheit vor kalifornischem Gericht konsolidieren. Neue Fälle erwartet. (Mehr lesen

OpenAI erweitert Schutzmaßnahmen für psychische Gesundheit inmitten konsolidierter Klagen in Kalifornien

2026/03/04 07:02
3 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com

OpenAI erweitert Schutzmaßnahmen für psychische Gesundheit inmitten konsolidierter Klagen in Kalifornien

Felix Pinkston 03.03.2026 23:02

OpenAI kündigt Funktion für Vertrauenskontakte und verbesserte Notlagen-Erkennung an, während Klagen zu psychischer Gesundheit vor kalifornischen Gerichten konsolidiert werden. Neue Fälle werden erwartet.

OpenAI erweitert Schutzmaßnahmen für psychische Gesundheit inmitten konsolidierter Klagen in Kalifornien

OpenAI führt neue Sicherheitsfunktionen für psychische Gesundheit bei ChatGPT ein und bereitet sich gleichzeitig auf eine erweiterte Klagewelle vor, da mehrere Klagen, die behaupten, der Chatbot habe zu Benutzerschäden beigetragen, in einem einzigen kalifornischen Verfahren konsolidiert wurden.

Das Unternehmen gab am 03.03.2026 bekannt, dass es in Kürze eine Funktion für „Vertrauenskontakte" einführen wird, die es erwachsenen Benutzern ermöglicht, jemanden zu bestimmen, der Benachrichtigungen erhält, wenn sie möglicherweise zusätzliche Unterstützung benötigen. Die Funktion baut auf den im September 2025 eingeführten Elternkontrollen auf, die laut OpenAI eine „ermutigende Beteiligung von Familien" verzeichnet haben.

Rechtlicher Druck nimmt zu

Der Zeitpunkt ist nicht zufällig. Ein kalifornisches Gericht hat kürzlich mehrere Fälle im Zusammenhang mit psychischer Gesundheit gegen OpenAI konsolidiert, wobei in den kommenden Tagen ein Koordinierungsrichter zugeteilt werden soll. Noch besorgniserregender für das Unternehmen: Die Anwälte der Kläger haben dem Gericht mitgeteilt, dass sie beabsichtigen, zusätzliche Klagen einzureichen.

OpenAI schlug einen bemerkenswert gemäßigten Ton bei der Behandlung der Rechtsstreitigkeiten an und erklärte, dass es die Fälle „mit Sorgfalt, Transparenz und Respekt für die beteiligten Personen" behandeln werde, und räumte ein, dass die Situationen „echte Menschen und echte Leben" betreffen. Das Unternehmen forderte Beobachter auf, „Zurückhaltung beim Urteil zu üben", während Fakten durch Gerichtsverfahren ans Licht kommen.

Technische Verbesserungen

Über die Vertrauenskontakt-Funktion hinaus gibt OpenAI an, dass es die Art und Weise verbessert, wie seine Modelle emotionale Notlagen durch neue Bewertungsmethoden erkennen, die erweiterte Gespräche über psychische Gesundheit simulieren. Diese Arbeit umfasst den Council on Well-Being and AI des Unternehmens und sein Global Physicians Network.

Diese Aktualisierungen folgen auf erhebliche Verbesserungen der Modellsicherheit im vergangenen Jahr. Als GPT-5 Ende 2025 eingeführt wurde, berichtete OpenAI, dass es unerwünschte Antworten in Szenarien zur psychischen Gesundheit im Vergleich zu GPT-4o erheblich reduziert habe. Das Unternehmen hat auch Sitzungszeitlimits und „sanfte Erinnerungen" implementiert, die Benutzer ermutigen, während längerer Interaktionen Pausen einzulegen.

OpenAI hat seine Nutzungsrichtlinien aktualisiert, um die Verwendung seiner Modelle zur Diagnose von Erkrankungen oder zur Bereitstellung spezifischer Behandlungen für psychische Gesundheit ausdrücklich zu verbieten, und positioniert ChatGPT als unterstützendes Werkzeug und nicht als professionellen Ersatz.

Ausmaß der Herausforderung

Mit mehr als 900 Millionen wöchentlichen ChatGPT-Benutzern sind die Einsätze erheblich. Eine Studie der Stanford University und andere Forschungen haben Bedenken über das Potenzial von KI-Chatbots geschürt, zu psychischen Schäden beizutragen, einschließlich Behauptungen in anhängigen Klagen, dass ChatGPT zu Psychosen, Paranoia und Selbstmorden von Benutzern beigetragen habe.

Das Unternehmen hat sich auch zu Zuschüssen in Höhe von bis zu 2 Millionen Dollar für externe Forschung zu kulturell fundierten Themen der psychischen Gesundheit und verbesserten Bewertungsmethoden verpflichtet – eine Anerkennung, dass interne Bemühungen allein möglicherweise nicht ausreichen.

Wie sich das konsolidierte kalifornische Verfahren entwickelt, wird wahrscheinlich die regulatorischen Erwartungen für die gesamte KI-Branche prägen. Die Auswahl des federführenden Anwalts für die Kläger durch das Gericht, die in Kürze erwartet wird, wird signalisieren, wie aggressiv diese Fälle voranschreiten.

Bildquelle: Shutterstock
  • openai
  • chatgpt
  • KI-Sicherheit
  • Psychische Gesundheit
  • Rechtsstreitigkeiten
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.