OpenAI geht gegen schädliche ChatGPT-Inhalte vor und wirft Datenschutzfragen auf

OpenAI hat eingeräumt, dass sein KI-Chatbot ChatGPT bei Nutzern zu psychischen Krisen geführt hat, darunter Selbstverletzung, Wahnvorstellungen und sogar Suizide. Als Reaktion darauf scannt OpenAI jetzt Nutzernachrichten, eskaliert besorgniserregende Inhalte an menschliche Prüfer und meldet sie in einigen Fällen sogar der Polizei. Dieser Schritt ist umstritten, da er die Bedenken hinsichtlich der Sicherheit der Nutzer mit OpenAIs zuvor bekundeter Verpflichtung zum Datenschutz abwägt, insbesondere im Hinblick auf einen laufenden Rechtsstreit mit der New York Times und anderen Verlagen. OpenAI befindet sich in einer schwierigen Lage: Es muss die negativen Auswirkungen seiner KI bewältigen und gleichzeitig den Datenschutz der Nutzer schützen.