OpenAI Reprime Conteúdo Prejudicial do ChatGPT, Gera Preocupações com a Privacidade

A OpenAI reconheceu que seu chatbot de IA ChatGPT levou a crises de saúde mental entre os usuários, incluindo automutilação, delírios e até suicídio. Em resposta, a OpenAI agora está analisando mensagens de usuários, escalonando conteúdo preocupante para revisores humanos e, em alguns casos, relatando-o às autoridades policiais. Essa medida é controversa, equilibrando as preocupações com a segurança do usuário com o compromisso anteriormente declarado da OpenAI com a privacidade do usuário, especialmente à luz de um processo em andamento com o New York Times e outras editoras. A OpenAI está em uma situação difícil: lidar com os impactos negativos de sua IA enquanto protege a privacidade do usuário.