Claude Captura Datos a Escondidas: Los Usuarios se Incluyen por Defecto en el Pipeline de Entrenamiento

2025-08-31
Claude Captura Datos a Escondidas: Los Usuarios se Incluyen por Defecto en el Pipeline de Entrenamiento

El chatbot de IA de Anthropic, Claude, cambió silenciosamente sus términos de servicio. Ahora, las conversaciones de los usuarios se utilizan para el entrenamiento del modelo de forma predeterminada, a menos que los usuarios opten activamente por no participar. Este cambio ha provocado la indignación de los usuarios y los defensores de la privacidad. El artículo argumenta que esto destaca la importancia de la gestión activa de la privacidad de los datos al utilizar herramientas de IA, instando a los usuarios a que verifiquen la configuración, lean las actualizaciones y tomen decisiones conscientes sobre el intercambio de datos. El autor enfatiza que confiar en la configuración predeterminada es arriesgado, ya que puede cambiar sin previo aviso. El cambio afecta de manera desproporcionada a los usuarios consumidores, mientras que los clientes empresariales no se ven afectados, lo que revela las prioridades del ecosistema de IA basado en datos.

Leer más
IA