Kulturelle Evolution der Kooperation unter LLM-Agenten
Forscher untersuchten, ob eine „Gesellschaft“ von Large Language Model (LLM)-Agenten trotz Anreizen zum Abweichen, gegenseitig vorteilhafte soziale Normen lernen kann. Experimente zeigten signifikante Unterschiede in der Entwicklung der Kooperation zwischen den Basismodellen, wobei Claude 3.5 Sonnet Gemini 1.5 Flash und GPT-4o deutlich übertraf. Darüber hinaus nutzte Claude 3.5 Sonnet einen kostspieligen Bestrafungsmechanismus, um noch höhere Punktzahlen zu erreichen – ein Erfolg, der von den anderen Modellen nicht wiederholt wurde. Diese Studie schlägt einen neuen Benchmark für LLMs vor, der sich auf die gesellschaftlichen Auswirkungen des Einsatzes von LLM-Agenten konzentriert und Einblicke in den Aufbau robusterer und kooperativer KI-Agenten bietet.