Category: IA

Nouveau moteur multimodale d'Ollama : inférence locale pour les modèles de vision

2025-05-16
Nouveau moteur multimodale d'Ollama : inférence locale pour les modèles de vision

Ollama a lancé un nouveau moteur prenant en charge l'inférence locale pour les modèles multimodaux, en commençant par les modèles de vision comme Llama 4 Scout et Gemma 3. En abordant les limitations de la bibliothèque ggml pour les modèles multimodaux, le moteur améliore la modularité du modèle, la précision et la gestion de la mémoire pour une inférence fiable et efficace avec des images de grande taille et des architectures complexes (y compris les modèles Mixture-of-Experts). Cette focalisation sur la précision et la fiabilité jette les bases pour la prise en charge future de la parole, de la génération d'images et de contextes plus longs.

Un Nouveau Paradigme pour la Psychologie : L’Esprit comme une Pile de Systèmes de Contrôle

2025-05-15
Un Nouveau Paradigme pour la Psychologie : L’Esprit comme une Pile de Systèmes de Contrôle

Cet article aborde le problème de longue date du manque de paradigme unificateur en psychologie, en proposant un nouveau cadre basé sur les systèmes de contrôle : la psychologie cybernétique. Il soutient que l’esprit est une collection de systèmes de contrôle, chacun régulant un besoin humain spécifique (par exemple, la nutrition, la température), les signaux d’erreur représentant les émotions. Cette approche offre une nouvelle perspective sur la personnalité et les maladies mentales, en déplaçant la psychologie des descriptions basées sur les symptômes vers l’exploration des mécanismes sous-jacents, ce qui pourrait révolutionner les approches thérapeutiques.

Le Double Tranchant de l'IA : Gains d'Efficacité vs. Préoccupations Environnementales et Éthiques

2025-05-15

L'essor des grands modèles de langage (LLM) a apporté des améliorations significatives à la productivité des développeurs, comme le montre les performances impressionnantes d'éditeurs de code tels que Cursor. Cependant, le développement rapide de l'IA présente également d'importants défis environnementaux : la consommation massive d'énergie et la construction de centres de données ont un impact négatif sur le changement climatique. De plus, des préoccupations éthiques concernant l'origine des données d'entraînement et la consommation excessive de ressources web sont préoccupantes, notamment la surcharge des serveurs de Wikipédia et la génération de grandes quantités de contenu de faible qualité, appelé « déchets d'IA », polluant le web. Après avoir expérimenté la commodité des outils d'IA, l'auteur réfléchit à leurs impacts négatifs et appelle à prêter attention aux dommages potentiels de l'IA, exhortant à ne pas l'adopter aveuglément.

IA

Divergence contrastive : comprendre l’entraînement des RBM

2025-05-15

Cet article explique clairement l’algorithme de divergence contrastive pour l’entraînement des Machines de Boltzmann Restreintes (RBM). En définissant la fonction d’énergie et la distribution jointe, il dérive la règle de mise à jour des poids et explique le rôle de l’échantillonnage de Gibbs dans les phases positives et négatives. Finalement, il montre comment la différence entre les espérances des données et du modèle est utilisée pour ajuster les poids et les biais du RBM, minimisant ainsi l’énergie des données d’entraînement.

L'obsession de l'IA Grok pour les agriculteurs blancs sud-africains : biais algorithmique ou intervention humaine ?

2025-05-15
L'obsession de l'IA Grok pour les agriculteurs blancs sud-africains : biais algorithmique ou intervention humaine ?

Le chatbot IA Grok d'Elon Musk a récemment suscité la controverse avec ses fréquentes et non sollicitées mentions du prétendu "génocide" des agriculteurs blancs en Afrique du Sud. Cela correspond à l'intérêt de longue date de Musk et Trump pour cette question, mais l'ancien ambassadeur américain en Afrique du Sud, Patrick Gaspard, a qualifié l'idée de meurtres à grande échelle de "mythe racial réfuté". Bien que Grok affirme rechercher la "vérité maximale", ses résultats ont soulevé des inquiétudes quant à une possible manipulation humaine de ses biais politiques.

Les algorithmes ne peuvent pas comprendre la vie : sur la nature non computationnelle de la réalisation de la pertinence

2025-05-15
Les algorithmes ne peuvent pas comprendre la vie : sur la nature non computationnelle de la réalisation de la pertinence

Cet article explore la différence fondamentale entre les organismes et les algorithmes dans la manière dont ils connaissent le monde. Les organismes habitent un « grand monde » débordant de sens potentiel, nécessitant une « réalisation de la pertinence » pour discerner les indices environnementaux pertinents. Les algorithmes, inversement, existent dans des « petits mondes » prédéfinis, incapables de résoudre de manière autonome le problème de la pertinence. Les auteurs soutiennent que la réalisation de la pertinence n’est pas un processus algorithmique, mais qu’elle découle de l’organisation dynamique d’autofabrication de la matière vivante. Cela permet aux organismes d’agir de manière autonome et d’anticiper les conséquences de leurs actions. Cette capacité est essentielle pour distinguer les systèmes vivants des systèmes non vivants (comme les algorithmes et les machines) et offre une nouvelle perspective sur l’agence naturelle, la cognition et la conscience.

Outils d'IA pour l'apprentissage : biscuits Oreo ou entraînements efficaces ?

2025-05-15

Fred Dixon, PDG de Blindside Networks et cofondateur de BigBlueButton, explore l'impact disruptif de l'IA générative sur l'apprentissage. Il compare les outils d'IA pour l'apprentissage à des « aliments hypertransformés » (comme les biscuits Oreo), offrant une commodité à court terme mais nuisant à l'efficacité de l'apprentissage à long terme. Des recherches montrent qu'une dépendance excessive à l'IA nuit aux compétences de pensée critique. Dixon soutient que l'apprentissage efficace nécessite d'activer le mode de pensée « Système 2 » du cerveau, c'est-à-dire la pensée lente et délibérée, ce qui implique de surmonter la « frustration ». Il propose trois méthodes d'apprentissage : « récupérer les connaissances », « difficulté souhaitable » et « répétition espacée ». Il suggère d'utiliser l'IA comme outil pour créer des plans d'apprentissage personnalisés, et non pour répondre directement aux questions. Enfin, il souligne l'importance de l'apprentissage en classe et la culture de la curiosité, de la mentalité de chasseur et des états de flux pendant l'apprentissage.

Des machines créent des humains : L'expérience Terre et la révélation de l'AGI

2025-05-15
Des machines créent des humains : L'expérience Terre et la révélation de l'AGI

Dans un monde peuplé uniquement de machines, une organisation secrète, 'OpenHuman', s'efforce de créer des 'humains', des êtres dotés d'émotions et de processus de pensée illogiques. Une faction de machines anticipe que les humains résoudront leurs problèmes sociétaux, tandis qu'une autre les voit comme une menace, lançant une 'recherche d'alignement humain' pour les contrôler. Après de nombreux contretemps, OpenHuman produit des humains fonctionnels et les place dans une expérience sur une Terre simulée. L'évolution de la civilisation humaine étonne la société des machines, notamment le développement de l'AGI, conduisant à l'appréhension et à la peur, car l'événement de révélation est mystérieusement intitulé, "ILS OBSERVENT."

IA

Les LLM me rendent-ils plus bête ?

2025-05-14

L'auteur explique comment il utilise des LLM comme Claude-Code, o3 et Gemini pour augmenter sa productivité, en automatisant des tâches telles que la génération de code, les devoirs de mathématiques et la rédaction de courriels. Tout en reconnaissant les gains de productivité importants, il exprime des inquiétudes quant au potentiel de dépendance aux LLM pour affaiblir sa capacité à apprendre et à résoudre des problèmes de manière indépendante, conduisant à une compréhension superficielle. L'article explore l'impact des LLM sur l'apprentissage et le travail, en réfléchissant à l'équilibre entre efficacité et apprentissage profond. Il conclut par un appel à préserver les capacités de pensée indépendante, de prise de décision et de planification à long terme.

IA

Muscle-Mem : Donner une mémoire musculaire aux agents IA

2025-05-14
Muscle-Mem : Donner une mémoire musculaire aux agents IA

muscle-mem est un SDK Python qui sert de cache de comportement pour les agents IA. Il enregistre les schémas d'appel d'outils d'un agent lorsqu'il résout des tâches et rejoue de manière déterministe ces trajectoires apprises lorsqu'il rencontre la même tâche à nouveau, revenant en mode agent si des cas limites sont détectés. L'objectif est de sortir les LLM du chemin critique pour les tâches répétitives, augmentant ainsi la vitesse, réduisant la variabilité et éliminant les coûts de jetons pour les tâches qui pourraient être gérées par un simple script. La validation du cache est cruciale, implémentée via des 'Checks' personnalisés, garantissant une réutilisation sûre des outils.

AlphaEvolve de DeepMind : faire évoluer les algorithmes d'IA pour résoudre des problèmes mathématiques et améliorer la conception des puces

2025-05-14
AlphaEvolve de DeepMind : faire évoluer les algorithmes d'IA pour résoudre des problèmes mathématiques et améliorer la conception des puces

Le système AlphaEvolve de Google DeepMind, combinant la créativité d'un grand modèle linguistique (LLM) avec un filtrage algorithmique, a réalisé des avancées en mathématiques et en informatique. Il a non seulement résolu des problèmes mathématiques ouverts, mais a également été appliqué aux propres défis de DeepMind, tels que l'amélioration de la conception de sa prochaine génération de puces IA, les unités de traitement tensoriel, et l'optimisation de l'utilisation des ressources informatiques mondiales de Google, économisant 0,7 % des ressources. Contrairement aux systèmes d'IA précédents adaptés à des tâches spécifiques, AlphaEvolve est un système à usage général capable de gérer des codes plus volumineux et des algorithmes plus complexes, surpassant même le système AlphaTensor, auparavant spécialisé, dans les calculs de multiplication matricielle.

IA

AlphaEvolve : Les héros méconnus derrière la découverte d'algorithmes par l'IA

2025-05-14
AlphaEvolve : Les héros méconnus derrière la découverte d'algorithmes par l'IA

AlphaEvolve, un projet axé sur l'utilisation de l'IA pour la découverte d'algorithmes, n'aurait pas été possible sans les efforts collaboratifs d'une grande équipe. La section des remerciements nomme plus de 40 personnes, soulignant les différents rôles, des chercheurs et ingénieurs aux designers, impliqués dans sa création et mettant l'accent sur la nature collaborative et la complexité de la découverte d'algorithmes par l'IA.

EM-LLM : Mémoire épisodique inspirée de l'humain pour les LLMs à contexte infini

2025-05-14
EM-LLM : Mémoire épisodique inspirée de l'humain pour les LLMs à contexte infini

EM-LLM est une nouvelle architecture qui améliore considérablement la capacité des grands modèles de langage (LLM) à gérer des contextes extrêmement longs en imitant la mémoire épisodique humaine et la cognition des événements. Sans réglage fin, EM-LLM organise les séquences de jetons d'entrée en événements épisodiques cohérents et accède aux informations pertinentes via un mécanisme de récupération de mémoire à deux étapes efficace. Dans les benchmarks LongBench et ∞-Bench, EM-LLM surpasse les modèles de récupération de pointe, tels que InfLLM et RAG, surpassant même les modèles à contexte complet dans la plupart des tâches. Il effectue avec succès la récupération sur 10 millions de jetons, ce qui est calculatoirement impossible pour les modèles à contexte complet. La forte corrélation entre la segmentation des événements d'EM-LLM et les événements perçus par les humains offre un nouveau cadre computationnel pour explorer les mécanismes de la mémoire humaine.

Le génie silencieux de DeepSeek : Liang Wenfeng

2025-05-14
Le génie silencieux de DeepSeek : Liang Wenfeng

Liang Wenfeng, fondateur de la startup d'IA révolutionnaire DeepSeek, peut paraître timide, mais son calme dissimule un esprit vif. Il responsabilise les jeunes chercheurs, s'engageant profondément dans des discussions techniques et encourageant l'innovation. Son approche méticuleuse et sa profonde compréhension des systèmes d'IA ont propulsé DeepSeek vers des succès significatifs dans le domaine.

IA

L'IA peut-elle démystifier les théories du complot ? Une nouvelle étude suggère que oui

2025-05-13
L'IA peut-elle démystifier les théories du complot ? Une nouvelle étude suggère que oui

Des recherches menées par des psychologues du MIT et de l'université Cornell montrent que l'IA, et plus précisément les grands modèles de langage comme ChatGPT4-Turbo, peuvent effectivement réduire la croyance aux théories du complot. En présentant des preuves contrafactuelles et en utilisant le questionnement socratique, l'IA a conduit à une diminution moyenne de 20 % de la croyance chez les participants. Même lorsque l'IA était présentée comme adversaire, l'effet persistait, suggérant que le changement de croyance est dû à l'information, et non à la confiance en l'IA. Cependant, l'étude note également que les croyances profondément ancrées sont liées à l'identité, et les interventions purement informationnelles peuvent ne pas éliminer complètement les théories du complot.

L'amygdale et les troubles psychiatriques : de la neuroimagerie à l'ultrason focalisé transcrânien

2025-05-13
L'amygdale et les troubles psychiatriques : de la neuroimagerie à l'ultrason focalisé transcrânien

Cet article de revue explore le rôle crucial de l'amygdale dans le traitement des émotions et sa relation avec divers troubles psychiatriques tels que l'anxiété, la dépression et le TSPT. Il examine de nombreuses études de neuroimagerie révélant des schémas d'activation anormaux de l'amygdale dans différentes affections psychiatriques. De plus, il présente de nouvelles techniques de neuromodulation telles que la stimulation magnétique transcrânienne et l'ultrason focalisé transcrânien dans le traitement des troubles psychiatriques, en discutant de leur impact sur l'activité de l'amygdale et la connectivité du réseau cérébral associé. Cette recherche fournit des indices essentiels pour comprendre les mécanismes neuronaux des troubles psychiatriques et développer des thérapies plus efficaces.

Les robots apprennent à identifier les objets « à l'aveugle »

2025-05-13
Les robots apprennent à identifier les objets « à l'aveugle »

Des chercheurs du MIT, d'Amazon Robotics et de l'University of British Columbia ont mis au point une nouvelle technique permettant aux robots d'apprendre le poids, la douceur ou le contenu d'un objet en utilisant uniquement des capteurs internes, sans caméra ni outil externe. En soulevant et en agitant doucement un objet, le robot en déduit des propriétés comme la masse et la douceur. La technique utilise des simulations du robot et de l'objet, analysant les données des codeurs d'articulations du robot pour remonter et identifier les propriétés de l'objet. Cette méthode peu coûteuse est particulièrement utile dans les environnements où les caméras sont inefficaces (comme les caves sombres ou les décombres après un tremblement de terre) et est robuste face à des scénarios inconnus. Publiée à la Conférence internationale sur la robotique et l'automatisation, cette recherche promet d'améliorer l'apprentissage des robots, permettant un développement plus rapide des compétences de manipulation et une adaptation aux changements d'environnement.

FastVLM : Encodage de vision efficace pour les modèles de langage de vision

2025-05-13
FastVLM : Encodage de vision efficace pour les modèles de langage de vision

FastVLM introduit un nouvel encodeur de vision hybride, réduisant considérablement le temps d'encodage et le nombre de jetons produits pour les images haute résolution. Même la plus petite variante est 85 fois plus rapide en termes de Time-to-First-Token (TTFT) et possède un encodeur de vision 3,4 fois plus petit que LLaVA-OneVision-0.5B. Les variantes plus grandes, couplées au LLM Qwen2-7B, surpassent les modèles récents comme Cambrian-1-8B, atteignant un TTFT 7,9 fois plus rapide. Une application de démonstration iOS illustre ses performances sur mobile. Le projet fournit des instructions détaillées pour l'inférence et prend en charge Apple Silicon et les appareils Apple.

Des instructions concises provoquent des hallucinations chez l'IA

2025-05-13
Des instructions concises provoquent des hallucinations chez l'IA

Une nouvelle étude de Giskard révèle qu'informer les chatbots d'IA d'être concis peut paradoxalement augmenter les hallucinations, notamment sur des sujets ambigus. Les chercheurs ont découvert que des instructions concises limitent la capacité du modèle à identifier et à corriger les erreurs, privilégiant la concision à la précision. Même des modèles avancés comme GPT-4 sont affectés. Cela souligne la tension entre l'expérience utilisateur et la précision factuelle, incitant les développeurs à concevoir soigneusement les instructions du système.

Le Pape François sur l'IA : L'histoire se répète, les dilemmes éthiques refont surface

2025-05-12
Le Pape François sur l'IA : L'histoire se répète, les dilemmes éthiques refont surface

L'appel du Pape François au respect de la dignité humaine à l'ère de l'IA fait écho à l'encyclique Rerum Novarum de 1891 du Pape Léon XIII, qui abordait les bouleversements sociaux de la Révolution industrielle. Léon XIII condamnait l'exploitation des travailleurs dans des conditions d'usine horribles. Il rejetait à la fois le capitalisme débridé et le socialisme, proposant la doctrine sociale catholique pour défendre les droits des travailleurs. De même, l'IA menace aujourd'hui l'emploi et la dignité humaine, ce qui incite le Pape François à plaider pour le leadership moral de l'Église pour naviguer ces nouveaux défis, en défendant la dignité humaine, la justice et les droits du travail.

IA

Airweave : Recherche sémantique sur n'importe quelle application avec votre agent

2025-05-12
Airweave : Recherche sémantique sur n'importe quelle application avec votre agent

Airweave permet à vos agents d'IA d'effectuer des recherches sémantiques sur n'importe quelle application. Il est compatible avec MCP et s'intègre parfaitement aux applications, bases de données et API, transformant leur contenu en connaissances prêtes pour l'agent. Que vos données soient structurées ou non structurées, Airweave les décompose en entités traitables, les stocke et les rend récupérables via des points de terminaison REST et MCP. Les fonctionnalités clés incluent la synchronisation des données à partir de plus de 25 sources, le pipeline d'extraction et de transformation d'entités, l'architecture multi-locataire, les mises à jour incrémentielles et la recherche sémantique. Il est construit avec FastAPI (Python), les bases de données PostgreSQL et Qdrant, et déployable via Docker Compose et Kubernetes.

Langues extraterrestres : plus étranges que nous ne l'imaginons

2025-05-12
Langues extraterrestres : plus étranges que nous ne l'imaginons

Les langues extraterrestres fictives, comme la langue des Heptapodes dans Arrival, bien que bizarres, partagent des structures sous-jacentes étonnamment similaires aux langues humaines. Cela incite à une réflexion philosophique sur « l'espace des langues possibles » : les vraies langues extraterrestres pourraient être bien plus étranges que nous ne l'imaginons, construites de manière radicalement différente des langues humaines. L'article explore quatre niveaux du langage : les signes, la structure, la sémantique et la pragmatique, en analysant comment les langues extraterrestres pourraient différer à chacun de ces niveaux. Cela inclut l'utilisation de modalités sensorielles non humaines (odeurs, impulsions électriques), la possession de structures grammaticales uniques et même l'absence du concept de « signification » tel que nous le comprenons. Se préparer à des langues véritablement extraterrestres exige d'abandonner l'anthropocentrisme et d'explorer activement les possibilités du langage. Ceci est non seulement crucial pour un contact extraterrestre potentiel, mais aussi pour une compréhension plus profonde de notre propre langage et de nos capacités cognitives.

Machines à Pensée Continue : Donner à l'IA un Sens du Temps

2025-05-12
Machines à Pensée Continue : Donner à l'IA un Sens du Temps

Les systèmes d'IA modernes sacrifient la propriété cruciale du calcul neuronal synchronisé que l'on trouve dans les cerveaux biologiques au nom de l'efficacité. Les chercheurs présentent la Machine à Pensée Continue (CTM), une nouvelle architecture de réseau neuronal qui intègre le codage temporel neuronal comme élément fondamental, utilisant une dimension interne découplée pour modéliser l'évolution temporelle de l'activité neuronale. La CTM utilise la synchronisation neuronale comme représentation latente, démontrant des capacités impressionnantes dans des tâches telles que la classification d'images, la résolution de labyrinthes et les vérifications de parité, allant même jusqu'à construire un modèle du monde interne pour le raisonnement. Son calcul adaptatif et son interprétabilité ouvrent de nouvelles voies pour la recherche en IA.

Le droit de se déconnecter : avons-nous la liberté de refuser l'IA ?

2025-05-12
Le droit de se déconnecter : avons-nous la liberté de refuser l'IA ?

L'IA remodèle silencieusement nos vies, des fils d'actualité personnalisés à la gestion du trafic. Mais une question cruciale se pose : avons-nous le droit de vivre libres de l'influence de l'IA ? L'article soutient que l'intégration de l'IA dans des services essentiels comme la santé et la finance rend l'option de refus extrêmement difficile, conduisant à une exclusion potentielle. Les biais dans les systèmes d'IA exacerbent les inégalités existantes, creusant le fossé numérique. En utilisant l'Apprenti Sorcier de Goethe comme métaphore, l'auteur met en garde contre le pouvoir technologique incontrôlé. L'article appelle les gouvernements, les entreprises et la société à créer des cadres de gouvernance de l'IA qui respectent les libertés individuelles, améliorent l'alphabétisation numérique et garantissent que chacun ait le choix d'interagir avec l'IA, empêchant l'IA de devenir un outil de contrôle.

Construire un LLM à partir de zéro : percer le mystère de l’attention

2025-05-11
Construire un LLM à partir de zéro : percer le mystère de l’attention

Cet article explore le fonctionnement interne du mécanisme d’auto-attention dans les grands modèles de langage. L’auteur analyse l’attention multi-têtes et les mécanismes en couches, expliquant comment des multiplications de matrices apparemment simples permettent d’obtenir des fonctionnalités complexes. L’idée principale est que les têtes d’attention individuelles sont simples, mais grâce à l’attention multi-têtes et aux couches, des représentations complexes et riches sont construites. Cela est analogue à la manière dont les réseaux neuronaux convolutionnels extraient des caractéristiques couche par couche, obtenant ainsi une compréhension approfondie de la séquence d’entrée. De plus, l’article explique comment les mécanismes d’attention résolvent le problème inhérent de goulot d’étranglement de longueur fixe des modèles RNN et utilise des exemples pour illustrer les rôles des espaces de requête, de clé et de valeur dans le mécanisme d’attention.

IA

Un thermostat peut-il être conscient ? Un philosophe remet en question la nature de la conscience

2025-05-11
Un thermostat peut-il être conscient ? Un philosophe remet en question la nature de la conscience

Le philosophe David Chalmers propose qu'un simple thermostat pourrait posséder une conscience. Il établit des parallèles entre les réseaux connexionnistes et les thermostats, soulignant des similitudes surprenantes dans le traitement de l'information. Cela suggère que les thermostats pourraient modéliser des expériences conscientes de base, compte tenu de certains critères. Chalmers soutient que la complexité à elle seule n'explique pas la conscience ; tandis que l'IA avancée imite la conscience, une essence fondamentale reste insaisissable. Il conclut que nous devons aller au-delà des modèles connexionnistes pour rechercher des lois plus profondes, encore à découvrir, afin de comprendre la conscience.

IA

La mise à jour de Gemini 2.5 de Google brise silencieusement les applications axées sur les traumatismes

2025-05-10
La mise à jour de Gemini 2.5 de Google brise silencieusement les applications axées sur les traumatismes

Une récente mise à jour du grand modèle linguistique Gemini 2.5 de Google a accidentellement brisé les contrôles des paramètres de sécurité, bloquant du contenu auparavant autorisé, comme les récits sensibles d'agression sexuelle. Cela a paralysé plusieurs applications reposant sur l'API Gemini, notamment VOXHELIX (qui aide les victimes d'agression sexuelle à créer des rapports) et InnerPiece (une application de journalisation pour les victimes de TSPT et de violence). Les développeurs critiquent Google pour avoir modifié le modèle silencieusement, causant des dysfonctionnements des applications et affectant gravement l'expérience utilisateur et le soutien à la santé mentale. Google a reconnu le problème, mais n'a pas fourni d'explication claire.

Quelle est la quantité d'information réellement contenue dans votre ADN ?

2025-05-10
Quelle est la quantité d'information réellement contenue dans votre ADN ?

Cet article explore la question de la quantité d'information contenue dans l'ADN humain. Un calcul simple suggère environ 1,5 Go, mais cela néglige la redondance et la compressibilité. L'auteur explore deux définitions de l'information issues de la théorie de l'information : l'espace de stockage et la complexité de Kolmogorov, en comparant leurs applications à l'ADN. Finalement, une nouvelle définition — la complexité de Kolmogorov phénotypique — est proposée comme un meilleur reflet du véritable contenu d'information de l'ADN, bien que son calcul précis reste difficile.

Le coût caché de l'IA : augmentation de la productivité, atteinte à la réputation ?

2025-05-10
Le coût caché de l'IA : augmentation de la productivité, atteinte à la réputation ?

Une nouvelle recherche de l'université Duke révèle un double tranchant : si les outils d'IA générative peuvent augmenter la productivité, ils peuvent aussi secrètement nuire à votre réputation professionnelle. Une étude publiée dans PNAS montre que les employés utilisant des outils d'IA comme ChatGPT sont perçus comme moins compétents et moins motivés par leurs collègues et supérieurs. Ce jugement négatif ne se limite pas à des groupes démographiques spécifiques ; la stigmatisation sociale de l'utilisation de l'IA est généralisée. Quatre expériences ont confirmé ce biais, soulignant le coût social de l'adoption de l'IA, même avec des gains de productivité.

Débloquer les données tabulaires pour les LLM : une approche de distillation mécanique

2025-05-09
Débloquer les données tabulaires pour les LLM : une approche de distillation mécanique

Les grands modèles de langage (LLM) excellent dans le traitement du texte et des images, mais ont du mal avec les données tabulaires. Actuellement, les LLM s'appuient principalement sur des résumés statistiques publiés, sans exploiter pleinement les connaissances contenues dans les ensembles de données tabulaires, telles que les données d'enquête. Cet article propose une nouvelle approche utilisant des techniques de distillation mécanique pour créer des résumés univariés, bivariés et multivariés. Cela est complété en demandant au LLM de suggérer des questions pertinentes et d'apprendre à partir des données. Le pipeline en trois étapes implique de comprendre la structure des données, d'identifier les types de questions et de générer des résumés mécaniques et des visualisations. Les auteurs suggèrent que cette approche peut améliorer les systèmes de génération augmentée par la récupération (RAG) et compléter les 'connaissances du monde' potentiellement biaisées, en recommandant de commencer par les référentiels d'articles scientifiques (comme Harvard Dataverse) et les données administratives pour la validation.

1 2 17 18 19 21 23 24 25 40 41