Les limites de l'IA générative : une critique de Gary Marcus

2025-02-15

Le scientifique cognitif Gary Marcus est un sceptique de premier plan de l'IA générative, arguant que la voie technologique actuelle souffre de failles techniques et éthiques. Il souligne que les grands modèles de langage (LLM) excellent dans l'approximation de fonctions, mais sont insuffisants pour apprendre des fonctions, sujets à des problèmes de "décalage de distribution" et incapables de comprendre des concepts abstraits ou de suivre des instructions de manière fiable. Marcus soutient que les LLM manquent de compréhension du monde réel, ce qui conduit à des erreurs logiques et des biais. Il propose d'intégrer les réseaux neuronaux avec des méthodes d'IA classiques pour remédier à ces lacunes. Il introduit un nouveau benchmark d'évaluation : le "défi de compréhension", où un système d'IA doit être capable de comprendre l'intrigue d'un film et de répondre à des questions connexes, mesurant ainsi la véritable compréhension.