Évolution culturelle de la coopération entre agents LLM
Des chercheurs ont étudié si une « société » d'agents de grands modèles de langage (LLM) peut apprendre des normes sociales mutuellement bénéfiques malgré les incitations à la défection. Les expériences ont révélé des différences significatives dans l'évolution de la coopération entre les modèles de base, Claude 3.5 Sonnet surpassant largement Gemini 1.5 Flash et GPT-4o. De plus, Claude 3.5 Sonnet a utilisé un mécanisme de punition coûteux pour obtenir des scores encore plus élevés, une prouesse non reproduite par les autres modèles. Cette étude propose une nouvelle référence pour les LLM, axée sur les implications sociales du déploiement d'agents LLM, offrant des informations sur la construction d'agents d'IA plus robustes et coopératifs.