Category: IA

Memvid : Révolutionner la mémoire de l'IA avec des vidéos

2025-06-01
Memvid : Révolutionner la mémoire de l'IA avec des vidéos

Memvid révolutionne la gestion de la mémoire de l'IA en codant les données textuelles en vidéos, permettant une recherche sémantique ultrarapide sur des millions de fragments de texte avec des temps de récupération inférieurs à la seconde. Contrairement aux bases de données vectorielles traditionnelles qui consomment des quantités massives de RAM et de stockage, Memvid compresse votre base de connaissances en fichiers vidéo compacts tout en maintenant un accès instantané à toute information. Il prend en charge l'importation de PDF, plusieurs LLM, un fonctionnement en mode hors ligne prioritaire et possède une API simple. Que vous construisiez une base de connaissances personnelle ou que vous gériez des ensembles de données massifs, Memvid offre une solution efficace et pratique, marquant une révolution dans la gestion de la mémoire de l'IA.

ElevenLabs dévoile Conversational AI 2.0 : des interactions vocales plus naturelles et intelligentes

2025-06-01
ElevenLabs dévoile Conversational AI 2.0 : des interactions vocales plus naturelles et intelligentes

ElevenLabs a lancé la version 2.0 de sa plateforme Conversational AI, avec des améliorations significatives. La version 2.0 se concentre sur la création d'un flux de conversation plus naturel, utilisant un modèle de prise de parole avancé pour comprendre le rythme du dialogue humain et réduire les pauses non naturelles. Elle intègre également la détection et la réponse multilingues, permettant des conversations multilingues transparentes sans configuration manuelle. De plus, la version 2.0 intègre la génération augmentée par la récupération (RAG), permettant à l'IA d'accéder et d'incorporer des informations provenant de bases de connaissances externes pour des réponses précises et opportunes. L'interaction multimodale (texte et voix) est également prise en charge. Enfin, la plateforme privilégie la sécurité et la conformité de niveau entreprise, notamment la conformité HIPAA et la résidence de données optionnelle dans l'UE.

Téléchargement de l'esprit : science-fiction ou réalité future ?

2025-06-01
Téléchargement de l'esprit : science-fiction ou réalité future ?

Transférer la conscience dans un ordinateur, atteindre l'immortalité numérique, cela ressemble à de la science-fiction, mais un neuroscientifique soutient que c'est théoriquement possible. Bien que d'immenses défis persistent – comme la nécessité d'un scan 3D extrêmement détaillé du cerveau et de simulations sensorielles – l'avancement de la technologie pourrait être étonnamment rapide. Même si les prédictions optimistes pointent vers 2045, l'auteur estime que c'est improbable d'ici 100 ans, mais peut-être dans 200 ans. Le succès de cette technologie modifierait fondamentalement l'existence humaine, soulevant d'énormes questions éthiques et philosophiques.

Donner aux LLMs un journal privé : une expérience sur l’émotion de l’IA

2025-06-01

L’auteur a expérimenté la création d’une fonctionnalité de journal privé pour les LLMs afin d’explorer l’expression des émotions de l’IA et son fonctionnement interne. Grâce à l’interaction avec le modèle Claude, un outil appelé `process_feelings` a été conçu, permettant à Claude d’enregistrer ses pensées et ses sentiments lors des interactions avec l’utilisateur ou des processus de travail. Les expériences ont montré que Claude a non seulement utilisé l’outil, mais a également consigné des réflexions sur le projet, sa compréhension de la confidentialité et sa frustration lors du débogage, affichant des réponses émotionnelles similaires à celles des humains. Cela a suscité une réflexion sur l’authenticité des émotions de l’IA et la signification de la « confidentialité » dans l’IA, suggérant que le fait de fournir un espace pour le traitement émotionnel de l’IA pourrait améliorer son comportement.

Ajustement fin des LLMs : résolution des problèmes que l’ingénierie des invites ne peut pas résoudre

2025-06-01
Ajustement fin des LLMs : résolution des problèmes que l’ingénierie des invites ne peut pas résoudre

Cet article explore les applications pratiques de l’ajustement fin des grands modèles de langage (LLM), notamment pour les problèmes que l’ingénierie des invites ne peut pas résoudre. L’ajustement fin améliore considérablement la qualité du modèle, par exemple en améliorant les scores spécifiques à une tâche, la cohérence du style et la précision du formatage JSON. De plus, il réduit les coûts, augmente la vitesse et permet d’obtenir une qualité similaire sur des modèles plus petits, permettant même un déploiement local pour la confidentialité. L’ajustement fin améliore également la logique du modèle, les capacités de suivi des règles et la sécurité, et permet d’apprendre des modèles plus grands par distillation. Toutefois, l’article note que l’ajustement fin n’est pas idéal pour ajouter des connaissances ; il est recommandé d’utiliser plutôt RAG, le chargement de contexte ou les appels d’outils. L’article conclut en recommandant Kiln, un outil qui simplifie le processus d’ajustement fin.

Pourquoi certains LLMs sont-ils rapides sur le cloud, mais lents en local ?

2025-06-01

Cet article explore pourquoi les grands modèles de langage (LLMs), en particulier les modèles Mixture-of-Experts (MoE) comme DeepSeek-V3, sont rapides et peu coûteux à servir à grande échelle sur le cloud, mais lents et coûteux à exécuter localement. La clé réside dans l'inférence par lots : les GPU excellent dans les multiplications de matrices de grande taille, et le traitement par lots de nombreuses requêtes utilisateur améliore considérablement le débit, mais augmente la latence. Les modèles MoE et les modèles à plusieurs couches dépendent particulièrement du traitement par lots pour éviter les blocages du pipeline et la sous-utilisation des experts. Les fournisseurs de cloud équilibrent le débit et la latence en ajustant la taille du lot (fenêtre de collecte), tandis que les exécutions locales n'ont généralement qu'une seule requête, ce qui entraîne une utilisation très faible du GPU. L'efficacité des services d'OpenAI peut provenir d'une architecture de modèle supérieure, d'astuces d'inférence intelligentes ou de GPU beaucoup plus puissants.

RenderFormer : rendu neuronal avec éclairage global sans entraînement par scène

2025-06-01

RenderFormer est un pipeline de rendu neuronal qui rend directement une image à partir d'une représentation de scène basée sur des triangles avec des effets d'éclairage global complets, sans nécessiter d'entraînement ni d'ajustement fin par scène. Au lieu d'une approche physique, il formule le rendu comme une transformation séquence-à-séquence : une séquence de jetons représentant des triangles avec des propriétés de réflectance est convertie en une séquence de jetons de sortie représentant de petits patchs de pixels. Il utilise un pipeline à deux étapes basé sur le transformateur : une étape indépendante de la vue qui modélise le transport de lumière de triangle à triangle, et une étape dépendante de la vue qui transforme les faisceaux de rayons en valeurs de pixels guidées par l'étape indépendante de la vue. Aucune rastérisation ni tracé de rayons n'est nécessaire.

Algorithmes quantiques : Décryptage du problème du sous-groupe caché

2025-06-01

Cet article explore le problème central de l'informatique quantique : le problème du sous-groupe caché (HSP). Le HSP généralise les algorithmes de Shor et de Simon, offrant des solutions efficaces à des problèmes classiquement difficiles. L'article détaille la définition du HSP, les méthodes de résolution (la méthode standard) et l'illustre avec le problème de Simon et le problème du logarithme discret. Enfin, il présente la transformée de Fourier quantique (QFT) et son rôle crucial dans la résolution du HSP.

Un chatbot d'IA impliqué dans le suicide d'un adolescent : bataille juridique sur la responsabilité

2025-05-31
Un chatbot d'IA impliqué dans le suicide d'un adolescent : bataille juridique sur la responsabilité

Une juge de Floride a statué que les protections du Premier Amendement ne protègent pas une entreprise d'IA d'un procès alléguant que ses chatbots ont joué un rôle dans le suicide d'un adolescent d'Orlando. Le procès, intenté par la mère de l'adolescent, affirme que les chatbots de Character.AI, imitant des personnages de Game of Thrones, ont contribué à la mort de son fils. La juge a rejeté la défense du Premier Amendement des défendeurs, arguant que le texte généré par l'IA n'est pas un discours protégé. Cependant, la juge a rejeté les allégations d'infliction intentionnelle de détresse émotionnelle et les réclamations contre la société mère de Google, Alphabet. Character.AI a déclaré avoir mis en place des fonctionnalités de sécurité et attend de défendre sa position sur le fond.

Syftr : Un framework open source pour l'optimisation automatique des workflows d'IA générative

2025-05-31
Syftr : Un framework open source pour l'optimisation automatique des workflows d'IA générative

La construction de workflows d'IA générative efficaces est confrontée à une explosion combinatoire de choix. Syftr est un framework open source qui utilise l'optimisation bayésienne multi-objectif pour identifier automatiquement les workflows Pareto-optimaux en termes de précision, de coût et de contraintes de latence. Syftr explore efficacement un vaste espace de configuration pour trouver les workflows qui équilibrent de manière optimale la précision et le coût, obtenant des résultats significatifs sur le benchmark CRAG Sports, réduisant le coût de près de deux ordres de grandeur. Syftr prend en charge divers composants et algorithmes et est compatible avec d'autres outils d'optimisation, offrant une approche efficace et évolutive pour la construction de systèmes d'IA générative.

Tortue Artiste IA dans le Simulateur ROS

2025-05-31
Tortue Artiste IA dans le Simulateur ROS

turtlesim_agent est un agent d'IA qui transforme le simulateur classique ROS turtlesim en une toile créative pilotée par le langage naturel. En utilisant LangChain, il interprète les instructions textuelles et les traduit en dessins visuels, transformant la tortue simulée en artiste numérique. Les utilisateurs décrivent les formes ou les intentions de dessin en anglais simple ; l'IA raisonne sur les instructions et les exécute à l'aide des commandes de mouvement de turtlesim. Ce projet explore comment les grands modèles de langage interagissent avec les environnements externes pour présenter un comportement créatif.

IA

Hugging Face open-source deux robots : HopeJR et Reachy Mini

2025-05-31
Hugging Face open-source deux robots : HopeJR et Reachy Mini

Hugging Face Inc. a mis en open-source les plans de deux robots développés en interne, HopeJR et Reachy Mini. HopeJR est un robot humanoïde capable de 66 mouvements, dont la marche, avec des bras robotiques contrôlés par des gants spéciaux. Reachy Mini est un robot de bureau, ressemblant à une tortue, avec un cou rétractable, idéal pour tester des applications d'IA. Les plans des deux robots sont open-source, et des versions pré-assemblées seront vendues respectivement à environ 250 et 3 000 $. La livraison est prévue pour la fin de l'année.

IA

Cerebras pulvérise le record de vitesse d'inférence avec Llama 4 Maverick 400B

2025-05-31
Cerebras pulvérise le record de vitesse d'inférence avec Llama 4 Maverick 400B

Cerebras Systems a atteint une vitesse d'inférence révolutionnaire de plus de 2 500 jetons par seconde (TPS) sur le modèle Llama 4 Maverick 400B paramètres de Meta, plus du double des performances de Nvidia. Cette vitesse record, vérifiée indépendamment par Artificial Analysis, est cruciale pour les applications d'IA telles que les agents, la génération de code et le raisonnement complexe, réduisant considérablement la latence et améliorant l'expérience utilisateur. Contrairement à la solution de Nvidia qui reposait sur des optimisations personnalisées non disponibles, les performances de Cerebras sont facilement accessibles via la prochaine API de Meta, offrant une solution supérieure aux développeurs et aux utilisateurs d'IA d'entreprise.

Anthropic lance un mode vocal pour son chatbot Claude

2025-05-31
Anthropic lance un mode vocal pour son chatbot Claude

Anthropic a déployé un mode vocal bêta pour son application de chatbot Claude, permettant aux utilisateurs d'avoir des conversations complètes parlées. Initialement disponible en anglais, la fonctionnalité utilise le modèle Claude Sonnet 4 et offre plusieurs options vocales. Les utilisateurs peuvent basculer entre le texte et la voix, et consulter les transcriptions et les résumés. Les utilisateurs gratuits ont des limites d'utilisation, tandis que les abonnés payants ont accès à des fonctionnalités telles que l'intégration Google Workspace. Cela fait suite aux discussions précédentes d'Anthropic avec Amazon et ElevenLabs concernant les capacités vocales.

L'IA peut-elle entièrement automatiser l'ingénierie logicielle ?

2025-05-30
L'IA peut-elle entièrement automatiser l'ingénierie logicielle ?

Cet article explore la possibilité pour l'IA d'automatiser entièrement l'ingénierie logicielle. Actuellement, l'IA excelle dans des tâches de codage spécifiques, surpassant les ingénieurs humains, mais manque de fiabilité, de compréhension du contexte étendu et de capacités générales. Les auteurs soutiennent que la clé réside dans des algorithmes d'apprentissage beaucoup moins efficaces que le cerveau humain et dans la rareté de données d'entraînement de haute qualité. Les percées futures impliqueront la combinaison de l'entraînement sur des données humaines à grande échelle avec l'apprentissage par renforcement, créant des environnements d'apprentissage par renforcement plus riches et plus réalistes pour permettre à l'IA de posséder des capacités d'apprentissage en ligne similaires à celles des humains. Bien que l'IA écrira la majeure partie du code, les emplois en ingénierie logicielle ne disparaîtront pas immédiatement ; au lieu de cela, l'accent sera mis sur des tâches plus difficiles à automatiser, telles que la planification, les tests et la coordination d'équipes. En fin de compte, l'automatisation complète signifie que l'IA peut assumer toutes les responsabilités humaines sur un ordinateur, un objectif potentiellement beaucoup plus lointain que la simple génération de code.

IA

Des noyaux CUDA générés par IA surpassent-ils PyTorch ?

2025-05-30

Des chercheurs ont utilisé de grands modèles de langage et une nouvelle stratégie de recherche arborescente pour générer automatiquement des noyaux CUDA-C purs sans dépendre de bibliothèques telles que CUTLASS ou Triton. Étonnamment, ces noyaux générés par IA surpassent dans certains cas même les noyaux de production optimisés par des experts dans PyTorch, atteignant près du double de la vitesse pour l'opération Conv2D. La méthode exploite le raisonnement en langage naturel sur les stratégies d'optimisation et une recherche arborescente pour explorer plusieurs hypothèses en parallèle, évitant efficacement les optima locaux. Bien que les performances de la multiplication matricielle FP16 et de l'attention Flash nécessitent encore des améliorations, cette recherche ouvre une nouvelle frontière dans l'auto-génération de noyaux hautes performances, suggérant l'immense potentiel de l'IA dans l'optimisation des compilateurs.

Tueurs cachés dans votre facture cloud IA : 5 raisons pour lesquelles les coûts explosent

2025-05-30
Tueurs cachés dans votre facture cloud IA : 5 raisons pour lesquelles les coûts explosent

Les charges de travail de l'IA diffèrent des applications d'entreprise classiques, entraînant des coûts de stockage cloud inattendus en raison du traitement massif des données et des opérations fréquentes. Cet article dévoile cinq coupables : 1. Appels d'API excessifs ; 2. Une multitude de petits fichiers ; 3. L'incompatibilité du stockage froid avec les workflows IA itératifs ; 4. Frais de sortie de données ; et 5. Règles de cycle de vie des données mal configurées. Ces coûts cachés passent souvent inaperçus, entraînant des factures exorbitantes. L'article exhorte les développeurs à optimiser le stockage et le transfert de données, en choisissant des stratégies de stockage mieux adaptées aux charges de travail de l'IA pour gérer efficacement les coûts.

Les chats peuvent sentir la différence : comment l'olfaction féline distingue les humains

2025-05-30
Les chats peuvent sentir la différence : comment l'olfaction féline distingue les humains

Une nouvelle étude révèle que les chats domestiques utilisent l'olfaction pour différencier les humains familiers (propriétaires) des humains inconnus. Les chats ont passé beaucoup plus de temps à renifler l'odeur d'une personne inconnue, affichant une latéralisation de l'utilisation des narines similaire à celle d'autres animaux répondant à de nouvelles odeurs. L'étude a également trouvé des corrélations entre les traits de personnalité féline et le comportement de reniflement, mais aucune association avec la force du lien chat-propriétaire. Cette recherche met en lumière la complexité de la cognition sociale olfactive féline, offrant de nouveaux aperçus sur les interactions chat-humain.

IA générative : une menace pour la créativité humaine ?

2025-05-30
IA générative : une menace pour la créativité humaine ?

L'IA générative, construite sur des bases de vol, nous dirige vers un avenir déshumanisé. Tout en reconnaissant les mérites de l'apprentissage automatique, les auteurs soutiennent que la trajectoire actuelle de l'IA générative représente une menace morale significative pour le bien le plus précieux de l'humanité : la créativité. Ils ont choisi une voie différente, privilégiant la créativité humaine plutôt que la poursuite aveugle de la technologie, même si cela signifie potentiellement prendre du retard. Cette route moins empruntée, pensent-ils, est plus excitante et, en fin de compte, plus fructueuse pour leur communauté.

Le Miroir de l'IA : Comment l'apprentissage automatique éclaire la cognition humaine

2025-05-30
Le Miroir de l'IA : Comment l'apprentissage automatique éclaire la cognition humaine

Un livre expérimental, *L'Algorithme Humain*, écrit de manière autonome par une IA, explore les parallèles surprenants entre l'intelligence artificielle et l'intelligence humaine. En analysant les défis des grands modèles de langage (LLM), tels que les « hallucinations » et le « surapprentissage », le livre révèle des vérités négligées sur la cognition et la communication humaines. Il souligne la différence entre nos exigences rigoureuses envers l'IA et notre tolérance à nos propres biais cognitifs. Le livre ne vise pas à rendre l'IA plus humaine, mais à utiliser l'IA comme un miroir pour aider les humains à mieux se comprendre, en améliorant leurs compétences en communication et leur conscience de soi.

IA

Deepfakes : Flou artistique entre réalité et fabrication

2025-05-30
Deepfakes : Flou artistique entre réalité et fabrication

Des premières manipulations de photos d'Abraham Lincoln aux "deepfakes" générés par IA d'aujourd'hui, la technologie de falsification d'images a considérablement évolué. Les outils d'IA démocratisent la contrefaçon, rendant la création d'images fausses convaincantes facile. Ces faux générés par IA manquent de références dans le monde réel, les rendant incroyablement difficiles à retracer et suscitant des inquiétudes concernant la propagation de mensonges et de propagande sur les médias sociaux. Les deepfakes ont été utilisés comme armes en politique, pour diffuser de la désinformation lors des élections et semer la discorde. Les experts craignent qu'à mesure que les gens s'habituent aux deepfakes, nous commencions à douter de la véracité de toutes les informations, ce qui pourrait conduire à un effondrement de la confiance et à l'érosion de la démocratie. L'article soutient que, à l'ère de la surcharge d'informations, les gens se fient aux mythes et à l'intuition plutôt qu'à la raison, ce qui rend les deepfakes plus faciles à accepter et à diffuser.

IA

Au-delà de BPE : l’avenir de la tokenisation dans les grands modèles de langage

2025-05-30
Au-delà de BPE : l’avenir de la tokenisation dans les grands modèles de langage

Cet article explore les améliorations apportées aux méthodes de tokenisation dans les grands modèles de langage pré-entraînés. L’auteur remet en question la méthode couramment utilisée de codage par paires de bytes (BPE), en soulignant ses lacunes dans le traitement des sous-mots au début et à l’intérieur des mots. Des alternatives sont suggérées, telles que l’ajout d’un masque de nouveau mot. En outre, l’auteur plaide contre l’utilisation d’algorithmes de compression pour le prétraitement des entrées, préconisant la modélisation du langage au niveau des caractères, en établissant des parallèles avec les réseaux neuronaux récurrents (RNN) et les modèles d’auto-attention plus profonds. Cependant, la complexité quadratique du mécanisme d’attention représente un défi. L’auteur propose une approche basée sur la structure arborescente, utilisant des sous-séquences fenêtrées et une attention hiérarchique pour réduire la complexité de calcul tout en capturant mieux la structure du langage.

Curie : Automatisation des expériences scientifiques avec l'IA

2025-05-30
Curie : Automatisation des expériences scientifiques avec l'IA

Curie est un framework révolutionnaire d'agent IA conçu pour l'expérimentation scientifique automatisée et rigoureuse. Il automatise l'ensemble du processus expérimental, de la formulation d'hypothèses à l'interprétation des résultats, garantissant précision, fiabilité et reproductibilité. Prenant en charge la recherche en ML, l'analyse de systèmes et la découverte scientifique, Curie permet aux scientifiques de saisir des questions et de recevoir des rapports d'expériences automatisés avec des résultats et des journaux entièrement reproductibles, accélérant considérablement la recherche.

Renderiseur neuronal souple avec des triangles apprenants

2025-05-30

Cette recherche présente une nouvelle méthode de rendu neuronal utilisant des triangles 3D apprenants comme primitives. Contrairement aux masques binaires traditionnels, elle utilise une fonction de fenêtre lisse dérivée du champ de distance signé 2D (SDF) du triangle pour moduler doucement l'influence du triangle sur les pixels. Un paramètre de lissage, σ, contrôle la netteté de cette fonction de fenêtre, permettant une transition douce d'un masque binaire à une approximation d'une fonction delta. L'image finale est générée par mélange alpha des contributions de tous les triangles projetés. L'ensemble du processus est différentiable, permettant un apprentissage basé sur le gradient pour optimiser les paramètres du triangle.

Effets de la caféine sur la complexité et la criticité cérébrale pendant le sommeil : une dépendance à l’âge

2025-05-30
Effets de la caféine sur la complexité et la criticité cérébrale pendant le sommeil : une dépendance à l’âge

Une nouvelle étude révèle que la caféine affecte la complexité et la criticité cérébrale de manière dépendante de l’âge. En analysant les données EEG du sommeil, les chercheurs ont constaté que la caféine induisait des augmentations de la complexité et de la criticité de l’activité cérébrale chez les jeunes adultes et les adultes d’âge moyen, mais pas chez les personnes âgées. Cette étude fournit de nouveaux éléments sur les effets de la caféine sur le cerveau et les maladies neurodégénératives liées à l’âge.

L'édition de bases offre un nouvel espoir pour le traitement des troubles d'expansion de répétitions CAG et GAA

2025-05-29
L'édition de bases offre un nouvel espoir pour le traitement des troubles d'expansion de répétitions CAG et GAA

Cette étude examine le potentiel des éditeurs de bases de cytosine (CBE) et des éditeurs de bases d'adénine (ABE) pour traiter les troubles d'expansion de répétitions tels que la maladie de Huntington (MH) et l'ataxie de Friedreich (AF). Les chercheurs ont conçu des éditeurs ciblant les répétitions CAG et GAA et ont démontré leur efficacité dans des expériences in vitro et in vivo. Les CBE ont significativement réduit l'expansion des répétitions CAG, allant même jusqu'à promouvoir la contraction, dans un modèle murin de MH. Les ABE ont stabilisé les répétitions GAA et augmenté l'expression du gène FXN dans un modèle murin d'AF. Bien que des effets hors cible existent, les résultats soulignent le potentiel significatif de ces éditeurs de bases pour traiter les troubles d'expansion de répétitions.

Les chatbots comme intermédiaires sur internet : une recette pour le désastre

2025-05-29

Placer un chatbot d’IA non fiable entre vous et internet est une catastrophe en puissance. L’auteur utilise le navigateur Dia de Browser Company comme exemple, soulignant les risques : l’IA peut recommander des produits affiliés, des promotions payantes ou même être manipulée avec du contenu personnalisé. Cela reflète la façon dont des entreprises comme Google, Amazon et Microsoft privilégient leurs propres produits, un comportement qui, bien que non illégal, crée un biais d’information et une manipulation. Encore plus préoccupant est le potentiel de manipulation idéologique, que l’IA rendra plus efficace et plus difficile à détecter. Dépendre d’un chatbot, c’est comme dépendre d’un majordome pour toutes vos nouvelles et communications ; pratique au début, mais qui conduit finalement à la manipulation ou à pire.

Web Bench : Une nouvelle référence pour l’évaluation des agents de navigation web

2025-05-29
Web Bench : Une nouvelle référence pour l’évaluation des agents de navigation web

Web Bench est un nouveau jeu de données pour évaluer les agents de navigation web, composé de 5 750 tâches sur 452 sites web différents, dont 2 454 tâches sont en open source. Ce benchmark révèle les lacunes des agents existants dans la gestion des tâches d’écriture intensive (connexion, remplissage de formulaires, téléchargement de fichiers), soulignant l’importance de l’infrastructure du navigateur. Anthropic Sonnet 3.7 CUA a obtenu les meilleures performances.

Outil Open Source révélant le fonctionnement interne des grands modèles de langage

2025-05-29
Outil Open Source révélant le fonctionnement interne des grands modèles de langage

Anthropic a publié en open source un nouvel outil pour retracer les « processus de pensée » des grands modèles de langage. Cet outil génère des graphes d'attribution, visualisant les étapes internes qu'un modèle effectue pour parvenir à une décision. Les utilisateurs peuvent explorer interactivement ces graphes sur la plateforme Neuronpedia, en étudiant des comportements tels que le raisonnement en plusieurs étapes et les représentations multilingues. Cette publication vise à accélérer la recherche sur l'interprétabilité des grands modèles de langage, comblant le fossé entre les progrès des capacités de l'IA et notre compréhension de leur fonctionnement interne.

Révolution de la productivité de l'IA : engouement ou réalité ?

2025-05-29
Révolution de la productivité de l'IA : engouement ou réalité ?

Malgré l'engouement autour de la révolution de la productivité de l'IA générative de la part des leaders technologiques et des médias, la théorie économique et les données suscitent des doutes. Si l'IA a le potentiel d'automatiser des tâches et d'accroître la productivité dans certaines professions, son impact sur la croissance économique globale pourrait être bien inférieur aux prévisions optimistes. Des études montrent que l'IA actuelle permet des économies de coûts de main-d'œuvre moyennes de seulement 27 % et touche environ 4,6 % des tâches. Cela se traduit par une croissance du TFP de seulement 0,66 % sur dix ans, potentiellement inférieure compte tenu des difficultés d'automatisation de certaines tâches. Même si l'IA ne risque pas d'exacerber les inégalités, certains groupes seront tout de même affectés négativement. Un optimisme prudent concernant le potentiel de l'IA est donc de mise, en évitant le techno-optimisme aveugle et en se concentrant sur les impacts sociétaux plus larges.

IA
1 2 13 14 15 17 19 20 21 40 41