Evolución Cultural de la Cooperación entre Agentes de LLM
Los investigadores examinaron si una 'sociedad' de agentes de Modelos de Lenguaje Grandes (LLM) puede aprender normas sociales mutuamente beneficiosas a pesar de los incentivos para desertar. Los experimentos revelaron diferencias significativas en la evolución de la cooperación entre los modelos base, con Claude 3.5 Sonnet superando significativamente a Gemini 1.5 Flash y GPT-4o. Además, Claude 3.5 Sonnet utilizó un mecanismo de castigo costoso para lograr puntuaciones aún más altas, una hazaña no replicada por los otros modelos. Este estudio propone un nuevo punto de referencia para LLM centrado en las implicaciones sociales de la implementación de agentes LLM, ofreciendo información sobre la construcción de agentes de IA más robustos y cooperativos.