Category: IA

Dimensions des plongements : de 300 à 4096 et au-delà

2025-09-08
Dimensions des plongements : de 300 à 4096 et au-delà

Il y a quelques années, les plongements de 200 à 300 dimensions étaient courants. Cependant, avec l’essor des modèles d’apprentissage profond tels que BERT et GPT, et les progrès du calcul GPU, la dimensionalité des plongements a explosé. Nous avons assisté à une progression des 768 dimensions de BERT aux 1536 de GPT-3, et maintenant à des modèles avec 4096 dimensions ou plus. Ceci est dû aux changements architecturaux (Transformateurs), aux ensembles de données d’entraînement plus importants, à l’essor de plateformes telles que Hugging Face et aux progrès des bases de données vectorielles. Bien que l’augmentation de la dimensionalité offre des gains de performance, elle introduit également des défis de stockage et d’inférence. Des recherches récentes explorent des représentations de plongements plus efficaces, telles que l’apprentissage Matryoshka, afin de trouver un meilleur équilibre entre performance et efficacité.

Architecture optique pour le recuit simulé : une nouvelle approche

2025-09-08
Architecture optique pour le recuit simulé : une nouvelle approche

Des chercheurs ont conçu une architecture optique pour le recuit simulé, utilisant des réseaux de micro-LED, des modulateurs de lumière spatiale à cristaux liquides et des réseaux de photodétecteurs pour effectuer la multiplication matrice-vecteur. Ce système gère efficacement les problèmes d'apprentissage automatique et d'optimisation, en tirant parti d'une non-linéarité tanh simulée pour une résolution efficace. Les expériences montrent une classification de haute précision sur les ensembles de données MNIST et Fashion-MNIST, et des performances supérieures sur divers problèmes d'optimisation, offrant une nouvelle solution matérielle pour le calcul de recuit simulé à grande échelle.

LLM vs. Agents IA : Le changement de paradigme dans l'IA

2025-09-07
LLM vs. Agents IA : Le changement de paradigme dans l'IA

Cet article expose un malentendu crucial dans le domaine de l'IA : la confusion entre ChatGPT et les grands modèles de langage (LLM). ChatGPT a évolué d'une simple interface LLM vers un agent IA sophistiqué, doté de mémoire, d'intégration d'outils et de capacités de raisonnement en plusieurs étapes, un changement architectural significatif. Les LLM sont de puissants systèmes d'appariement de motifs, mais manquent d'apprentissage et d'adaptation ; les agents IA utilisent les LLM comme composant de leur architecture cognitive, interagissant avec des systèmes externes et apprenant de l'expérience. Cette distinction a des implications profondes pour les développeurs, les chefs de produit, la stratégie commerciale et les utilisateurs. Comprendre cette différence est essentiel pour exploiter tout le potentiel de l'IA et éviter de construire des solutions d'hier pour les problèmes de demain.

IA

Le Langage Métaphorique du Cerveau en Psychiatrie : Une Perspective Historique et Contemporaine

2025-09-07

Cet essai examine l'utilisation persistante du « langage métaphorique du cerveau » en psychiatrie, où les maladies mentales sont expliquées à l'aide de notions simplistes sur la structure ou le dysfonctionnement du cerveau. Des critiques du début du XXe siècle de personnalités influentes comme Adolf Meyer et Karl Jaspers, à des exemples plus contemporains impliquant des chercheurs comme Paul Meehl et Nancy Andreasen, l'essai retrace la présence durable de ce langage métaphorique. Malgré les progrès de la neuroscience, des expressions comme « glissement synaptique » et « cerveau brisé » restent courantes. L'auteur utilise l'hypothèse des neurotransmetteurs monoaminergiques comme étude de cas, soulignant ses limites pour expliquer des troubles comme la schizophrénie, la manie et la dépression. Une anecdote réelle illustre l'impact de telles explications métaphoriques sur les patients et le public. L'essai conclut en notant que la recherche de financement externe et la publicité pour les médicaments ont exacerbé la prévalence de ce phénomène.

Défi BrainCraft : Naviguez dans un labyrinthe avec 1000 neurones

2025-09-07
Défi BrainCraft : Naviguez dans un labyrinthe avec 1000 neurones

Le défi BrainCraft invite les participants à concevoir un réseau neuronal basé sur les taux et inspiré de la biologie pour contrôler un agent virtuel naviguant dans un labyrinthe simple et cherchant des sources d’énergie. Le défi comprend cinq tâches de difficulté croissante, chacune durant deux mois. L’agent doit naviguer et acquérir de l’énergie sous des contraintes de ressources, en utilisant des données de capteurs limitées et seulement 1000 neurones. Cela représente un défi significatif pour les modèles actuels inspirés des neurosciences, nécessitant l’intégration de la dynamique neuronale fonctionnelle et du contrôle sensorimoteur.

IA

Manuel d'apprentissage automatique : modèles, prédictions et actions

2025-09-06

Le livre "Modèles, prédictions et actions : fondements de l'apprentissage automatique" de Moritz Hardt et Benjamin Recht est maintenant disponible aux éditions Princeton University Press. Ce manuel complet couvre un large éventail de sujets liés à l'apprentissage automatique, des prédictions fondamentales à l'apprentissage profond, l'inférence causale et l'apprentissage par renforcement. Des exercices supplémentaires et une prépublication au format PDF sont également disponibles. Le livre est sous licence Creative Commons BY-NC-ND 4.0.

IA

Construire des LLMs à partir de zéro : vecteurs, matrices et espaces de haute dimension

2025-09-06
Construire des LLMs à partir de zéro : vecteurs, matrices et espaces de haute dimension

Cet article, le second d'une série en trois parties, démystifie le fonctionnement des grands modèles de langage (LLM) pour les lecteurs ayant une inclination technique et des connaissances limitées en IA. S'appuyant sur la partie 19 d'une série basée sur le livre de Sebastian Raschka « Construire un grand modèle de langage (à partir de zéro) », il explique l'utilisation des vecteurs, des matrices et des espaces de haute dimension (espace de vocabulaire et espace d'intégration) dans les LLM. L'auteur soutient que la compréhension de l'inférence LLM ne nécessite que des mathématiques de niveau lycée, tandis que l'entraînement nécessite des mathématiques plus avancées. L'article détaille comment les vecteurs représentent la signification dans les espaces de haute dimension et comment la multiplication matricielle projette entre ces espaces, en la reliant aux couches linéaires des réseaux neuronaux.

Anthropic verse 1,5 milliard de dollars pour régler un procès sur le droit d'auteur

2025-09-06
Anthropic verse 1,5 milliard de dollars pour régler un procès sur le droit d'auteur

La société d'IA Anthropic a accepté de payer 1,5 milliard de dollars dans le cadre d'un règlement à l'amiable d'un recours collectif intenté par des auteurs concernant l'utilisation d'œuvres protégées par le droit d'auteur pour entraîner son modèle d'IA, Claude. Il s'agit du plus important recouvrement de droits d'auteur jamais rapporté publiquement. Bien qu'un juge ait précédemment statué que l'utilisation des livres par Anthropic était « extrêmement transformatrice » et donc un usage loyal, le règlement porte sur l'acquisition par la société de millions de livres piratés sur des sites tels que Library Genesis. Ce règlement évite un procès où Anthropic risquait d'être tenu responsable de violation du droit d'auteur. Cette affaire historique met en lumière les batailles juridiques en cours concernant les données d'entraînement de l'IA et crée un précédent pour les futures entreprises d'IA.

Apertus : Un grand modèle linguistique multilingue entièrement ouvert

2025-09-06
Apertus : Un grand modèle linguistique multilingue entièrement ouvert

Apertus est un grand modèle linguistique (LLM) multilingue entièrement ouvert, doté de 70 milliards et 8 milliards de paramètres, prenant en charge plus de 1000 langues et un contexte long. Entraîné sur 15 billions de jetons de données ouvertes et entièrement conformes, il atteint des performances comparables à celles des modèles à code fermé. Apertus utilise une nouvelle fonction d'activation xIELU et l'optimiseur AdEMAMix, subissant un réglage fin supervisé et un alignement QRPO. Ses poids, ses données et les détails de son entraînement sont disponibles publiquement, en respectant le consentement de retrait des propriétaires de données et en évitant la mémorisation des données d'entraînement. Intégré à la bibliothèque transformers, Apertus prend en charge diverses méthodes de déploiement. Bien que puissant, les utilisateurs doivent être conscients des imprécisions et des biais potentiels de sa sortie.

IA

OpenAI lance une plateforme d'emploi IA et un programme de certification

2025-09-05
OpenAI lance une plateforme d'emploi IA et un programme de certification

OpenAI prévoit de lancer l'année prochaine une plateforme d'emploi alimentée par l'IA pour mettre en relation les employeurs avec des candidats possédant des compétences en intelligence artificielle, afin d'accélérer le déploiement de la technologie dans les entreprises et les organismes gouvernementaux. Dans les prochains mois, un nouveau programme de certification sera également lancé pour apprendre aux travailleurs à mieux utiliser l'IA au travail. OpenAI travaille avec plusieurs organisations sur ce programme, notamment Walmart Inc., le plus grand employeur privé des États-Unis. OpenAI a déclaré qu'elle prévoyait de certifier 10 millions d'Américains d'ici 2030.

Architecture d'agent IA : la confiance, pas la précision

2025-09-05
Architecture d'agent IA : la confiance, pas la précision

Cet article décortique l'architecture des agents IA, en arguant que l'expérience utilisateur l'emporte sur la précision brute. Prenant l'exemple d'un agent de support client, il décrit quatre couches architecturales : la mémoire (session, client, comportementale, contextuelle), la connectivité (intégrations système), les capacités (profondeur des compétences) et la confiance (scores de confiance, transparence du raisonnement, transferts en douceur). Quatre approches architecturales sont comparées : agent unique, routeur + compétences, workflows prédéfinis et collaboration multi-agents. L'auteur recommande de commencer simplement et d'ajouter de la complexité uniquement lorsque nécessaire. De manière contre-intuitive, les utilisateurs font plus confiance aux agents lorsqu'ils sont honnêtes sur leurs limites, pas lorsqu'ils ont toujours raison.

RDF : La couche de connaissance naturelle pour les systèmes d'IA

2025-09-05
RDF : La couche de connaissance naturelle pour les systèmes d'IA

Les grands modèles de langage (LLM) ont souvent des difficultés avec la précision des données d'entreprise, mais les graphes de connaissances peuvent tripler la précision. Cet article explore pourquoi le Resource Description Framework (RDF) n'est pas seulement une option parmi d'autres pour la représentation des connaissances, mais le point final naturel. De nombreuses entreprises, lors de la construction de couches de connaissances, choisissent initialement des solutions personnalisées, mais finissent inévitablement par reconstruire les fonctionnalités essentielles du RDF, telles que les identifiants globaux et les protocoles de fédération de données. L'article explique comment le RDF résout les problèmes centraux de la représentation des connaissances, tels que l'identification des entités, et montre comment l'utilisation du RDF améliore la précision et l'efficacité des LLM.

IA

Le Chat : mise à jour majeure avec des connecteurs et des mémoires pour une assistance IA de niveau supérieur

2025-09-04
Le Chat : mise à jour majeure avec des connecteurs et des mémoires pour une assistance IA de niveau supérieur

Le Chat de Mistral AI a bénéficié d'une mise à jour majeure, introduisant plus de 20 connecteurs sécurisés et prêts pour les entreprises, couvrant les données, la productivité, le développement, l'automatisation et le commerce. Les utilisateurs peuvent désormais accéder et interagir directement avec des outils tels que Databricks, Snowflake, GitHub et Asana au sein de Le Chat. Une nouvelle fonctionnalité de « mémoires » (bêta) permet des réponses personnalisées basées sur le contexte et les préférences, tout en maintenant un contrôle précis sur les informations sensibles. Toutes les fonctionnalités sont disponibles sur le plan gratuit.

IA

Marches aléatoires en 10 dimensions : Défier l'intuition dans les espaces de haute dimensionalité

2025-09-04
Marches aléatoires en 10 dimensions : Défier l'intuition dans les espaces de haute dimensionalité

La physique en haute dimension est la norme dans la dynamique moderne, des dix dimensions de la théorie des cordes aux systèmes complexes. Cependant, les hautes dimensions présentent la « malédiction de la dimensionalité » : la visualisation est impossible, le sur-apprentissage est rampant et l'intuition fait défaut. Cet article utilise une marche aléatoire en 10 dimensions pour illustrer les caractéristiques de l'espace de haute dimension. En haute dimension, les crêtes de montagnes sont beaucoup plus fréquentes que les sommets, ce qui a des conséquences profondes sur l'évolution, la dynamique des systèmes complexes et la puissance de l'apprentissage automatique. Les marches aléatoires explorent efficacement les espaces de haute dimension, même les paysages maximalement rugueux, pouvant traverser l'espace entier. Cela aide à comprendre l'évolution de structures complexes dans la vie et comment éviter les minima locaux dans l'apprentissage profond.

L'IA vole-t-elle déjà des emplois aux jeunes ? Une nouvelle étude de Stanford suggère que oui

2025-09-04
L'IA vole-t-elle déjà des emplois aux jeunes ? Une nouvelle étude de Stanford suggère que oui

Le débat fait rage : l’IA affecte-t-elle les perspectives d’emploi des jeunes ? Des études initiales ont révélé un impact limité, mais une nouvelle recherche de l’Université Stanford, utilisant les données de paie d’ADP, révèle une baisse de 13 % de l’emploi pour les jeunes de 22 à 25 ans dans les emplois fortement exposés à l’IA, tels que le développement de logiciels et le service client. En contrôlant des facteurs tels que la COVID et le ralentissement technologique, l’étude suggère que l’effet de l’IA pourrait être plus important qu’on ne le pensait auparavant, en particulier dans les domaines fortement automatisés. Inversement, l’emploi a augmenté dans les postes d’augmentation de l’IA. Cela déclenche un débat sur les ajustements des programmes d’études et les parcours professionnels des étudiants, soulignant la nécessité d’un suivi continu de l’impact en temps réel de l’IA sur le marché du travail.

IA jeunes

Construire des évaluations efficaces d'agents IA : des tests E2E aux évaluations N-1

2025-09-04

Cet article explore la construction de systèmes d'évaluation efficaces pour les agents d'IA. L'auteur souligne que, même si les modèles s'améliorent constamment, l'évaluation reste cruciale. Il préconise de commencer par des évaluations de bout en bout (E2E), en définissant des critères de succès et en produisant des résultats simples oui/non pour identifier rapidement les problèmes, affiner les invites et comparer les performances de différents modèles. Ensuite, les évaluations "N-1", simulant les interactions précédentes de l'utilisateur, peuvent directement identifier les problèmes, mais nécessitent la maintenance d'interactions "N-1" actualisées. Des points de contrôle dans les invites sont également suggérés pour vérifier la conformité du LLM aux modèles de conversation souhaités. Enfin, l'auteur remarque que les outils externes simplifient la configuration, mais des évaluations personnalisées adaptées au cas d'utilisation spécifique restent nécessaires.

Décryptage d'un Transformer minimaliste : révéler le fonctionnement interne des LLM avec 10 000 paramètres

2025-09-04
Décryptage d'un Transformer minimaliste : révéler le fonctionnement interne des LLM avec 10 000 paramètres

Cet article présente un modèle Transformer radicalement simplifié avec seulement ~10 000 paramètres, offrant un aperçu clair du fonctionnement interne des grands modèles de langage (LLM). En utilisant un ensemble de données minimal axé sur les relations entre fruits et goûts, les auteurs obtiennent des performances étonnamment élevées. Des visualisations révèlent le fonctionnement des embeddings de mots et du mécanisme d'attention. Essentiellement, le modèle généralise au-delà de la mémorisation, prédisant correctement "piment" lorsqu'il est invité avec "J'aime le piquant donc j'aime", démontrant les principes fondamentaux du fonctionnement des LLM d'une manière très accessible.

IA

Les données, pas la puissance de calcul : le prochain goulot d’étranglement de l’IA

2025-09-03
Les données, pas la puissance de calcul : le prochain goulot d’étranglement de l’IA

Pendant des années, nous avons mal interprété la Leçon amère ; il ne s’agit pas de puissance de calcul, mais de données. Augmenter le nombre de GPU nécessite une augmentation de 40 % des données, sinon c’est un gaspillage de ressources. Les données Internet approchent de la saturation. L’avenir réside dans les « alchimistes » (génération de données à haut risque et à haute récompense) et les « architectes » (amélioration constante de l’architecture du modèle), et non seulement dans la puissance de calcul. L’article analyse les avantages, les inconvénients et les risques des deux approches, en concluant que la résolution de la pénurie de données en 2025 déterminera la survie des entreprises d’IA en 2026.

Étude du MIT : ChatGPT provoque un déclin cognitif dans la rédaction de dissertations

2025-09-03
Étude du MIT : ChatGPT provoque un déclin cognitif dans la rédaction de dissertations

Une étude du MIT révèle que l'utilisation de ChatGPT pour la rédaction de dissertations entraîne des dommages cognitifs mesurables. Des électroencéphalogrammes ont montré une connectivité neuronale affaiblie, une mémoire altérée et un moindre sentiment d'auteur chez les étudiants ayant utilisé à plusieurs reprises l'IA. Même avec des dissertations bien notées, l'engagement du cerveau était considérablement réduit. L'étude a découvert que les LLM entraînent une sous-implication des réseaux cérébraux critiques, et même après l'arrêt de l'utilisation de l'IA, la fonction cognitive ne se rétablit pas complètement. Ce « délestage cognitif » conduit à une altération à long terme de l'apprentissage et de la créativité.

IA

Dynamo AI : Chef de produit pour une IA fiable – Façonner l'avenir de l'IA d'entreprise

2025-09-03
Dynamo AI : Chef de produit pour une IA fiable – Façonner l'avenir de l'IA d'entreprise

Dynamo AI, une startup en pleine croissance qui construit une plateforme d'IA fiable pour les entreprises, recherche un chef de produit ayant plus d'un an d'expérience. Ce rôle consiste à définir et à exécuter la stratégie produit pour ses solutions de red teaming, de garde-fous et d'observabilité. Vous collaborerez avec les fondateurs, les ingénieurs et les clients d'entreprise dans les secteurs réglementés (finance, assurance, etc.), en façonnant les feuilles de route des produits et en fournissant des solutions de pointe. Une passion pour la sécurité et la conformité de l'IA est essentielle, ainsi que de solides compétences en communication et en collaboration interfonctionnelle.

HunyuanWorld-Voyager de Tencent : Génération de vidéo 3D cohérente à partir d'une seule image

2025-09-03
HunyuanWorld-Voyager de Tencent : Génération de vidéo 3D cohérente à partir d'une seule image

L'équipe IA de Tencent présente HunyuanWorld-Voyager, un nouveau framework de diffusion vidéo qui génère des séquences de nuages de points 3D cohérents à partir d'une seule image avec des trajectoires de caméra définies par l'utilisateur. Voyager produit des vidéos de scènes 3D cohérentes pour explorer des mondes virtuels le long de trajectoires personnalisées, et génère également des vidéos de profondeur et RGB alignées pour une reconstruction 3D efficace. Entraîné sur plus de 100 000 clips vidéo combinant des captures du monde réel et des rendus synthétiques Unreal Engine, Voyager atteint des résultats de pointe sur le benchmark WorldScore. Le code et les modèles pré-entraînés sont disponibles publiquement.

VibeVoice : Modèle open source de synthèse vocale longue et multi-intervenants

2025-09-03

VibeVoice est un nouveau framework open source conçu pour générer des audios conversationnels expressifs, longs et multi-intervenants, tels que des podcasts, à partir de texte. Il s'attaque aux défis des systèmes traditionnels de synthèse vocale (TTS), notamment en termes d'évolutivité, de cohérence des voix et de prise de parole naturelle. L'innovation principale réside dans l'utilisation de tokeniseurs de parole continue (acoustiques et sémantiques) fonctionnant à une fréquence d'images ultra-basse de 7,5 Hz. Ces tokeniseurs préservent la fidélité audio tout en augmentant considérablement l'efficacité de calcul pour le traitement de longues séquences. VibeVoice utilise une architecture de diffusion de jeton suivant, exploitant un grand modèle linguistique (LLM) pour comprendre le contexte textuel et le déroulement du dialogue, et une tête de diffusion pour générer des détails acoustiques de haute fidélité. Le modèle peut synthétiser jusqu'à 90 minutes de parole avec jusqu'à 4 intervenants distincts, dépassant les limites typiques de 1 à 2 intervenants de nombreux modèles précédents.

IA

Acorn : Une approche révolutionnaire de la démonstration de théorèmes par l'IA

2025-09-03
Acorn : Une approche révolutionnaire de la démonstration de théorèmes par l'IA

Cet article explore Acorn, un nouveau démonstrateur de théorèmes basé sur l'IA qui diffère considérablement des démonstrateurs interactifs traditionnels comme Lean. Acorn utilise un style d'interaction conversationnel où les utilisateurs affirment progressivement des énoncés que le système vérifie automatiquement. Cela reflète plus fidèlement le processus de démonstration humain, éliminant le besoin de déclarations de type fastidieuses et de recherche de théorèmes prédéfinis. Acorn utilise un modèle ML simple pour assister le processus de démonstration, indiquant où l'intervention de l'utilisateur est nécessaire, améliorant ainsi l'efficacité et la compréhension. Contrairement à Lean et à des systèmes similaires, Acorn privilégie l'intuition et l'expression en langage naturel, montrant l'immense potentiel de la collaboration humain-IA dans la démonstration mathématique.

Modèles du monde : l’illusion et la réalité de l’AGI

2025-09-03
Modèles du monde : l’illusion et la réalité de l’AGI

La dernière quête de la recherche en IA, notamment dans les laboratoires qui cherchent à créer une « intelligence artificielle générale » (AGI), est quelque chose appelé un modèle du monde : une représentation de l’environnement qu’une IA transporte en elle comme un globe de neige informatique. Des sommités de l’apprentissage profond comme Yann LeCun (de Meta), Demis Hassabis (de Google DeepMind) et Yoshua Bengio (de Mila, l’Institut québécois d’intelligence artificielle) estiment tous que les modèles du monde sont essentiels pour construire des systèmes d’IA véritablement intelligents, scientifiques et sûrs. Cependant, les détails des modèles du monde font l’objet de débats : sont-ils innés ou acquis ? Comment détecter leur présence ? L’article retrace l’histoire de ce concept et révèle que l’IA générative actuelle ne repose peut-être pas sur des modèles du monde complets, mais plutôt sur de nombreuses heuristiques déconnectées. Bien qu’efficaces pour des tâches spécifiques, celles-ci manquent de robustesse. La construction de modèles du monde complets reste donc essentielle, promettant des solutions aux hallucinations de l’IA, un raisonnement amélioré et une plus grande interprétabilité, ce qui contribuera en fin de compte à faire progresser l’AGI.

iNaturalist open-source une partie de ses modèles de vision par ordinateur

2025-09-02
iNaturalist open-source une partie de ses modèles de vision par ordinateur

iNaturalist a open-sourcé un sous-ensemble de ses modèles d'apprentissage automatique, incluant des modèles « petits » entraînés sur environ 500 taxons, ainsi que des fichiers de taxonomie et un modèle géographique, adaptés aux tests sur appareil et autres applications. Les modèles complets de classification des espèces restent privés en raison de la propriété intellectuelle et des politiques organisationnelles. Le billet détaille les instructions d'installation et d'exécution pour MacOS, couvrant l'installation des dépendances, la configuration de l'environnement, des suggestions d'optimisation des performances (y compris la compilation de TensorFlow et l'utilisation de pillow-simd), et fournit des benchmarks de performances.

LLM : Encyclopédies avec perte d'information

2025-09-02

Les grands modèles de langage (LLM) sont comme des encyclopédies avec perte d'information ; ils contiennent une vaste quantité d'informations, mais cette information est compressée, ce qui entraîne une perte de données. La clé est de discerner les questions auxquelles les LLM peuvent répondre efficacement par rapport à celles où la perte d'information affecte significativement la précision. Par exemple, demander à un LLM de créer un squelette de projet Zephyr avec des configurations spécifiques est une question « sans perte » qui nécessite des détails précis, ce qui pose problème aux LLM. La solution consiste à fournir un exemple correct, permettant au LLM de fonctionner sur la base de faits existants plutôt que de dépendre de détails potentiellement manquants dans sa base de connaissances.

CauseNet : Un graphe de causalité massif extrait du Web

2025-09-02

Des chercheurs ont construit CauseNet, une base de connaissances à grande échelle comprenant plus de 11 millions de relations de causalité. Extrait de sources web semi-structurées et non structurées avec une précision estimée à 83 %, CauseNet est un graphe de causalité utilisable pour des tâches telles que la réponse à des questions causales et le raisonnement. Le projet fournit également du code pour le chargement dans Neo4j et des ensembles de données d'entraînement/d'évaluation pour la détection de concepts causaux.

IA

Au-delà du texte vers SQL : construire un analyste de données IA

2025-09-01

Cet article explore les défis et les solutions pour construire un analyste de données IA. L’auteur soutient que la simple conversion de texte en SQL est insuffisante pour les questions d’utilisateurs réels, nécessitant des plans en plusieurs étapes, des outils externes (comme Python) et un contexte externe. Son équipe a construit une plateforme de BI générative utilisant une couche sémantique alimentée par Malloy, un langage de modélisation qui définit explicitement la logique métier. Ceci, combiné à un système multi-agents, à la génération augmentée par la récupération (RAG) et à une sélection stratégique de modèles, permet une analyse de données de haute qualité et à faible latence. La plateforme génère du SQL, écrit du Python pour des calculs complexes et intègre des sources de données externes. L’article met l’accent sur l’ingénierie du contexte, l’optimisation du système de récupération et la sélection des modèles, tout en partageant des solutions pour les modes de défaillance courants.

Les LLM démocratisent la création de compilateurs : des recettes aux workflows

2025-09-01
Les LLM démocratisent la création de compilateurs : des recettes aux workflows

Cet article présente un nouveau point de vue sur les tâches quotidiennes comme des processus de compilation. Prenant la cuisine comme exemple, l'auteur compare les recettes à des programmes et le processus de cuisson à l'exécution de la compilation. L'avènement des grands modèles de langage (LLM) rend la création de compilateurs spécifiques à un domaine incroyablement facile, même pour ceux sans expérience en programmation. Avec les LLM, nous pouvons transformer les tâches quotidiennes - routines d'entraînement, processus d'entreprise, même la création musicale - en environnements programmables, augmentant l'efficacité et approfondissant notre compréhension des systèmes quotidiens. Ce n'est pas seulement une innovation technologique, mais aussi un changement de pensée, étendant le concept de compilateurs du code à tous les aspects de la vie.

OpenAI sévit contre les contenus préjudiciables de ChatGPT, soulevant des inquiétudes quant à la vie privée

2025-09-01
OpenAI sévit contre les contenus préjudiciables de ChatGPT, soulevant des inquiétudes quant à la vie privée

OpenAI a reconnu que son chatbot d'IA ChatGPT a entraîné des crises de santé mentale chez les utilisateurs, notamment des automutilations, des délires et même des suicides. En réponse, OpenAI analyse désormais les messages des utilisateurs, soumettant les contenus préoccupants à des examinateurs humains et, dans certains cas, les signalant aux autorités. Cette mesure est controversée, car elle cherche à concilier les préoccupations concernant la sécurité des utilisateurs avec l'engagement initial d'OpenAI envers la confidentialité des données, particulièrement au vu du procès en cours avec le New York Times et d'autres éditeurs. OpenAI se retrouve dans une situation difficile : gérer les impacts négatifs de son IA tout en protégeant la vie privée des utilisateurs.

IA
1 3 5 6 7 8 9 40 41