Anthropic dá a Claude a capacidade de encerrar conversas

2025-08-16

A Anthropic deu ao seu modelo de linguagem grande, Claude, a capacidade de encerrar conversas em casos de interações persistentemente prejudiciais ou abusivas do usuário. Este recurso, originário de pesquisas exploratórias sobre o bem-estar da IA, visa mitigar os riscos do modelo. Testes revelaram a forte aversão de Claude a tarefas prejudiciais, aparente sofrimento ao encontrar solicitações prejudiciais e uma tendência a encerrar conversas apenas depois que várias tentativas de redirecionamento falharem. Essa funcionalidade é reservada para casos extremos; a grande maioria dos usuários não será afetada.