Evolução Cultural da Cooperação entre Agentes de LLMs
2024-12-18
Pesquisadores examinaram se uma 'sociedade' de agentes de Modelos de Linguagem Grandes (LLMs) pode aprender normas sociais mutuamente benéficas, mesmo com incentivos para defeitar. Experimentos revelaram diferenças significativas na evolução da cooperação entre modelos base, com o Claude 3.5 Sonnet superando significativamente o Gemini 1.5 Flash e o GPT-4o. Além disso, o Claude 3.5 Sonnet utilizou um mecanismo de punição custoso para alcançar pontuações ainda mais altas, um feito não replicado pelos outros modelos. Este estudo propõe um novo benchmark para LLMs focado nas implicações sociais da implantação de agentes LLM, oferecendo insights para a construção de agentes de IA mais robustos e cooperativos.