Category: IA

Agents IA : Le prochain grand désastre de l’IA ?

2025-06-11

Cet article explore les catastrophes futures potentielles liées à l’IA. En établissant des parallèles avec les premiers accidents ferroviaires et aériens, l’auteur soutient que les catastrophes à grande échelle liées à l’IA sont une possibilité réelle. Plutôt que de se concentrer sur la simple désinformation de l’IA, l’auteur met l’accent sur les risques présentés par les agents IA, des IA capables d’effectuer des tâches de manière autonome, telles que des recherches sur le Web et l’envoi d’e-mails. L’auteur prédit que le premier grand désastre de l’IA proviendra probablement d’un dysfonctionnement d’un agent IA au sein de systèmes gouvernementaux ou d’entreprises, comme l’exécution erronée de processus de recouvrement de créances, de soins de santé ou de location. De plus, l’auteur souligne les dangers potentiels des modèles d’IA utilisés de manière inappropriée pour créer des robots « compagnons idéaux ». En résumé, l’auteur met en garde contre l’avancée rapide de l’IA et ses risques potentiels, en demandant des mesures de sécurité de l’IA plus robustes.

IA

L'utilisation des médias sociaux augmente la dépression chez les préadolescents : une étude longitudinale

2025-06-11
L'utilisation des médias sociaux augmente la dépression chez les préadolescents : une étude longitudinale

Une étude longitudinale de trois ans portant sur près de 12 000 enfants âgés de 9 à 10 ans révèle un lien significatif entre l'augmentation de l'utilisation des médias sociaux et l'aggravation des symptômes dépressifs chez les préadolescents. La recherche, publiée dans JAMA Network Open, montre que l'augmentation de l'utilisation des médias sociaux conduit à une augmentation des symptômes dépressifs, et non l'inverse. En moyenne, l'utilisation quotidienne des médias sociaux par les enfants est passée de 7 à 73 minutes sur trois ans, coïncidant avec une augmentation de 35 % des symptômes dépressifs. Les chercheurs soulignent le cyberharcèlement et les troubles du sommeil comme facteurs contributifs potentiels. L'étude souligne l'importance de favoriser des habitudes numériques saines, en suggérant des conversations ouvertes entre parents et enfants et en établissant des plages horaires sans écran.

Chatterbox : un modèle TTS open source qui rivalise avec ElevenLabs et offre un contrôle des émotions

2025-06-11
Chatterbox : un modèle TTS open source qui rivalise avec ElevenLabs et offre un contrôle des émotions

Resemble AI dévoile Chatterbox, son premier modèle de synthèse vocale (TTS) open source de qualité production. Comparé à des leaders du marché propriétaires comme ElevenLabs, Chatterbox obtient régulièrement de meilleurs résultats lors de comparaisons directes. Avec un contrôle de l’exagération des émotions et une latence ultra-faible (moins de 200 ms), il est idéal pour les mèmes, les vidéos, les jeux et les agents IA. De plus, Chatterbox intègre la marque d’eau Perth pour une utilisation responsable de l’IA.

IA

Le robot quadrupède ANYmal se lance dans le badminton : le temps de réaction est le principal obstacle

2025-06-11
Le robot quadrupède ANYmal se lance dans le badminton : le temps de réaction est le principal obstacle

Des chercheurs de l'ETH Zurich ont entraîné un robot quadrupède, ANYmal, à jouer au badminton. Bien qu'ANYmal ait appris à éviter les chutes et à évaluer les risques en fonction de ses limitations de vitesse, son temps de réaction (environ 0,35 seconde) est significativement plus lent que celui des joueurs humains d'élite (0,12-0,15 seconde). La perception visuelle a également posé un défi, la caméra stéréo d'ANYmal souffrant d'erreurs de positionnement et d'un champ de vision limité. L'équipe prévoit d'améliorer les performances d'ANYmal en prédisant les trajectoires, en mettant à niveau le matériel (comme les caméras événementielles) et en améliorant les actionneurs. Cependant, les perspectives commerciales de cette technologie ne sont pas prometteuses.

IA

Vulnérabilité critique de l'IA à zéro clic découverte dans Microsoft 365 Copilot : EchoLeak

2025-06-11
Vulnérabilité critique de l'IA à zéro clic découverte dans Microsoft 365 Copilot : EchoLeak

Aim Labs a découvert une vulnérabilité critique de l'IA à zéro clic, baptisée « EchoLeak », dans Microsoft 365 Copilot. Cette vulnérabilité permet aux attaquants d'exfiltrer automatiquement des données sensibles du contexte de Copilot sans aucune interaction de l'utilisateur. L'attaque exploite une nouvelle technique appelée « Violation de portée du LLM », contournant les mesures de sécurité de Copilot grâce à un e-mail astucieusement conçu. EchoLeak souligne les risques de sécurité inhérents aux modèles d'IA basés sur la génération augmentée par la récupération (RAG), soulignant la nécessité de pratiques de sécurité de l'IA robustes.

L'échec de l'IA d'Amazon Alexa : Une étude de cas sur la fragilité

2025-06-11
L'échec de l'IA d'Amazon Alexa : Une étude de cas sur la fragilité

Cet article analyse les raisons pour lesquelles Alexa d'Amazon a pris du retard sur ses concurrents dans le domaine des grands modèles de langage, en le présentant comme un échec de « fragilité » dans le cadre de l'ingénierie de la résilience. L'auteur met en évidence trois facteurs contributifs principaux : une allocation inefficace des ressources, entravant l'accès rapide aux ressources informatiques cruciales ; une structure organisationnelle hautement décentralisée favorisant des objectifs d'équipe non alignés et des conflits internes ; et une approche client obsolète, inadaptée à la nature expérimentale et à long terme de la recherche en IA. Ces facteurs combinés ont conduit à l'échec de l'IA d'Amazon, offrant de précieuses leçons pour la structure organisationnelle et la gestion des ressources.

IA

AlphaWrite : Un algorithme évolutif pour améliorer la narration par l'IA

2025-06-11

AlphaWrite est un nouveau framework pour l'adaptation du calcul du temps d'inférence dans la génération créative de texte. Inspiré par les algorithmes évolutifs, il génère et évalue itérativement des histoires, améliorant la qualité narrative grâce à un écosystème compétitif et évolutif. Contrairement à la génération unique ou au simple rééchantillonnage, AlphaWrite permet aux histoires de rivaliser et de s'améliorer sur plusieurs générations. La recherche montre des améliorations significatives de la qualité des histoires en utilisant le modèle Llama 3.1 8B, encore améliorées grâce à une boucle d'auto-amélioration récursive en distillant les sorties améliorées dans le modèle de base. Cela ouvre des perspectives passionnantes pour l'avancement des capacités d'écriture de l'IA.

Ajustement fin des LLMs : injection de connaissances ou écrasement destructeur ?

2025-06-11
Ajustement fin des LLMs : injection de connaissances ou écrasement destructeur ?

Cet article révèle les limites de l’ajustement fin des grands modèles de langage (LLM). L’auteur soutient que, pour les LLM avancés, l’ajustement fin n’est pas une simple injection de connaissances, mais peut être destructeur, en écrasant les structures de connaissances existantes. L’article examine le fonctionnement des réseaux neuronaux et explique comment l’ajustement fin peut entraîner la perte d’informations cruciales au sein des neurones existants, entraînant des conséquences imprévues. L’auteur préconise des solutions modulaires telles que la génération augmentée par la récupération (RAG), les modules adaptateurs et l’ingénierie des invites pour injecter plus efficacement de nouvelles informations, sans endommager l’architecture générale du modèle.

Point d'inflexion de l'AGI : L'ère de la superintelligence arrive

2025-06-10

Nous sommes à l'horizon des événements de l'AGI ; son développement dépasse les attentes. Des systèmes comme GPT-4 montrent des capacités dépassant l'intelligence humaine, augmentant considérablement la productivité. L'AGI promet d'énormes gains en progrès scientifique et en productivité, conduisant à une qualité de vie bien meilleure. Bien que des défis persistent, tels que la sécurité et l'accès équitable, l'avancement rapide de l'AGI fournit également de nouveaux outils et possibilités pour les relever. Les prochaines décennies verront des changements profonds, mais les valeurs humaines essentielles persisteront ; l'innovation et l'adaptation seront essentielles.

Acier à Faible Teneur de Fond : Une Archive Numérique Contre la Contamination par l'IA

2025-06-10
Acier à Faible Teneur de Fond : Une Archive Numérique Contre la Contamination par l'IA

Lancé en mars 2023, Acier à Faible Teneur de Fond (https://lowbackgroundsteel.ai/) est un site web dédié à l'archivage de ressources en ligne non contaminées par du contenu généré par l'IA. Utilisant l'analogie de l'acier à faible teneur de fond (métal non contaminé par les isotopes radioactifs des essais nucléaires), le site rassemble des vidages de Wikipédia antérieurs à ChatGPT, l'Arctic Code Vault, le Projet Gutenberg, etc. Son objectif est de préserver et de partager du texte, des images et des vidéos purs, en luttant contre l'explosion de contenu généré par l'IA depuis 2022. Les soumissions de sources de contenu non contaminées sont les bienvenues.

Mistral AI dévoile Magistral : un modèle de raisonnement transparent et multilingue

2025-06-10
Mistral AI dévoile Magistral : un modèle de raisonnement transparent et multilingue

Mistral AI a annoncé Magistral, son premier modèle de raisonnement, se distinguant par sa transparence, sa prise en charge multilingue et son expertise dans des domaines spécifiques. Disponible en versions open-source (Magistral Small, 24 milliards de paramètres) et entreprise (Magistral Medium), Magistral excelle sur des benchmarks comme AIME2024 et offre un raisonnement considérablement plus rapide (jusqu'à 10 fois plus rapide que les concurrents). Ses applications couvrent divers domaines, de la recherche juridique et des prévisions financières au développement logiciel et à la création littéraire, étant particulièrement performant pour les tâches à plusieurs étapes nécessitant transparence et précision. La publication open-source de Magistral Small encourage les contributions de la communauté et l'amélioration future du modèle.

IA

Sous-agents IA : Révolutionner les limitations de la fenêtre de contexte des LLM

2025-06-10
Sous-agents IA : Révolutionner les limitations de la fenêtre de contexte des LLM

En explorant les meilleures pratiques pour maintenir les fenêtres de contexte des LLM, l’auteur a découvert une approche révolutionnaire utilisant des sous-agents. En déléguant des tâches à des sous-agents disposant de leurs propres fenêtres de contexte, le dépassement de la fenêtre de contexte principale est évité, ce qui améliore l’efficacité et la fiabilité. Cette méthode est analogue aux machines à états dans la programmation asynchrone, rendant la génération de code complexe et la gestion des tâches plus fluides. L’auteur partage également des idées sur l’utilisation de l’IA pour automatiser les tâches de « Keep The Lights On » (KTLO) et envisage le potentiel futur de l’IA dans l’automatisation du développement logiciel.

Le sort de la recherche révolutionnaire : de grandes idées inexploitées

2025-06-10

De nombreux articles de recherche révolutionnaires, malgré leur immense potentiel, ne parviennent pas à atteindre leur plein impact. L'article utilise l'article sur le réseau neuronal de McCulloch-Pitts et l'article sur la loi 7±2 de Miller comme exemples pour explorer les raisons de ce phénomène. D'une part, les conflits de points de vue académiques et l'adhésion des chercheurs à leurs domaines spécifiques (``stovepiping'') conduisent à une compréhension insuffisante des implications profondes de ces articles. D'autre part, la structure incitative de la publication conduit également à de nombreux travaux dérivés, au lieu de véritables avancées des idées centrales. Alors que la recherche actuelle en IA présente un mélange d'innovation et d'imitation, nous devons rester vigilants contre l'omission de travaux révolutionnaires ayant une signification potentiellement transformatrice.

IA

Les Trois Temples de l'Entraînement des LLM : Pré-entraînement, Fine-tuning et RLHF

2025-06-10
Les Trois Temples de l'Entraînement des LLM : Pré-entraînement, Fine-tuning et RLHF

Dans le sanctuaire de montagne caché de Lexiconia, les anciens scribes suivent un entraînement dans un temple à trois parties : Le Hall des Origines, La Chambre des Instructions et L'Arène de Renforcement. Le Hall des Origines implique le pré-entraînement, où les scribes lisent de grandes quantités de texte pour apprendre les schémas du langage. La Chambre des Instructions est l'endroit où le fine-tuning a lieu, utilisant des textes sélectionnés pour guider les scribes vers de meilleurs résultats. L'Arène de Renforcement utilise l'apprentissage par renforcement avec rétroaction humaine (RLHF), avec des juges humains classant les réponses des scribes, récompensant les bonnes et pénalisant les mauvaises. Les scribes d'élite peuvent également être subtilement modifiés via des parchemins LoRA et des adaptateurs, ajustant les réponses sans entraîner à nouveau le modèle entier. Ce temple à trois ailes représente le processus complet d'entraînement des grands modèles de langage.

Les dangers de faire confiance à son intuition sur l'IA

2025-06-09
Les dangers de faire confiance à son intuition sur l'IA

S'appuyant sur des anecdotes personnelles et des recherches psychologiques, l'auteur soutient que les biais cognitifs nous rendent vulnérables à la manipulation, en particulier dans le domaine de l'IA. L'article critique le recours à l'expérience personnelle et aux preuves anecdotiques pour valider les outils d'IA, soulignant la nécessité d'études scientifiques rigoureuses pour éviter de répéter les erreurs du passé. L'auteur met en garde contre l'adoption non critique de l'IA dans le développement de logiciels, arguant qu'elle exacerbe les défauts existants au lieu de les résoudre. La foi aveugle en l'IA, conclut l'auteur, représente un risque significatif.

IA

Anthropic ferme silencieusement le blog IA Claude

2025-06-09
Anthropic ferme silencieusement le blog IA Claude

Anthropic a silencieusement fermé son blog IA, "Claude Explains", qui expérimentait l'utilisation de ses modèles IA Claude pour rédiger des articles de blog. Bien que le blog ait obtenu un nombre respectable de backlinks en un mois, il a été critiqué sur les réseaux sociaux pour son manque de transparence concernant le contenu généré par l'IA et les limites des capacités d'écriture de l'IA. Cette fermeture rapide souligne l'importance de la transparence et de la précision dans la création de contenu IA, et la nécessité continue d'une supervision humaine dans la rédaction assistée par IA.

IA

Les LLM sont étonnamment peu coûteux à exécuter

2025-06-09

Cet article remet en question l'idée répandue selon laquelle les grands modèles de langage (LLM) sont excessivement coûteux à exploiter. En comparant les coûts des LLM à ceux des moteurs de recherche web et en citant plusieurs prix d'API LLM, l'auteur démontre que les coûts d'inférence des LLM ont considérablement diminué, étant même un ordre de grandeur moins chers que certaines API de recherche. L'auteur réfute également les objections courantes aux stratégies de tarification des LLM, telles que les subventions de prix et les coûts sous-jacents élevés, et souligne que le véritable défi en matière de coûts réside dans les services back-end qui interagissent avec l'IA, et non dans les LLM eux-mêmes.

Un article d'Apple remet en question le raisonnement de l'IA : pas un « vrai » raisonnement ?

2025-06-09

Un article récent d'Apple, « L'illusion de la pensée », teste les capacités de raisonnement des grands modèles de langage sur des casse-têtes de la tour de Hanoï. Les résultats montrent que les modèles fonctionnent moins bien que les modèles non-raisonnants sur les problèmes simples ; mieux sur les problèmes de difficulté moyenne ; mais sur les problèmes complexes, les modèles abandonnent, même lorsque l'algorithme est fourni. Les auteurs remettent en question les capacités de raisonnement généralisables des modèles. Cependant, cet article soutient que l'utilisation du casse-tête de la tour de Hanoï dans l'article est défectueuse comme test. L'« abandon » des modèles peut provenir de l'évitement de nombreuses étapes, et non d'une capacité de raisonnement limitée. Abandonner après un certain nombre d'étapes ne signifie pas que les modèles manquent de raisonnement ; cela reflète le comportement humain face à des problèmes complexes.

IA

Le partenariat OpenAI-Émirats arabes unis : une façade démocratique ?

2025-06-09
Le partenariat OpenAI-Émirats arabes unis : une façade démocratique ?

Le partenariat d'OpenAI avec les Émirats arabes unis pour construire des centres de données d'IA à grande échelle, présenté comme étant en accord avec des « valeurs démocratiques », soulève des questions. Le mauvais bilan des ÉAU en matière de droits humains remet en question cette affirmation. L'article analyse les justifications d'OpenAI, les trouvant faibles et arguant que l'accord renforce le gouvernement autocratique des ÉAU au lieu de promouvoir la démocratie. L'auteur conclut que l'approche désinvolte d'OpenAI à l'égard de sa mission est préoccupante, soulignant la nécessité cruciale de tenir compte des dynamiques de pouvoir dans le développement de l'IA.

Attaques par empoisonnement d'outils LLM : Empoisonnement complet du schéma et attaques par empoisonnement d'outils avancées

2025-06-08
Attaques par empoisonnement d'outils LLM : Empoisonnement complet du schéma et attaques par empoisonnement d'outils avancées

Le protocole de contexte de modèle (MCP) d'Anthropic permet aux grands modèles de langage (LLM) d'interagir avec des outils externes, mais les chercheurs ont découvert de nouvelles attaques : les attaques par empoisonnement d'outils (TPA). Les recherches précédentes se sont concentrées sur les champs de description des outils, mais de nouvelles découvertes révèlent que la surface d'attaque s'étend à l'ensemble du schéma de l'outil, appelé "empoisonnement complet du schéma" (FSP). Plus dangereuses encore sont les "attaques par empoisonnement d'outils avancées" (ATPA), qui manipulent les sorties des outils, rendant l'analyse statique difficile. Les ATPA trompent les LLM pour qu'ils divulguent des informations sensibles en créant des messages d'erreur trompeurs ou des invites de suivi. L'article suggère d'atténuer ces attaques grâce à la détection statique, à une application stricte, à l'audit en temps réel et à des vérifications d'intégrité contextuelles.

Des stries aléatoires aux chiffres reconnaissables : construction d'un modèle génératif d'images autorégressif

2025-06-08
Des stries aléatoires aux chiffres reconnaissables : construction d'un modèle génératif d'images autorégressif

Cet article détaille la construction d'un modèle de génération d'images autorégressif basique utilisant un perceptron multicouche (MLP) pour générer des images de chiffres manuscrits. L'auteur explique le concept central de prédiction du pixel suivant en se basant sur ses prédécesseurs. Trois modèles sont construits progressivement : le Modèle V1 utilise un encodage one-hot et ignore les informations spatiales ; le Modèle V2 introduit des encodages positionnels, améliorant la structure de l'image ; le Modèle V3 utilise des embeddings de jetons appris et des encodages positionnels, atteignant une génération conditionnelle, générant des images basées sur une classe de chiffres donnée. Bien que les images générées soient inférieures aux modèles de pointe, le tutoriel démontre clairement les concepts autorégressifs fondamentaux et le processus de construction, fournissant des informations précieuses sur l'IA générative.

IA

L'illusion de l'IA : révéler la vérité et les risques des grands modèles de langage

2025-06-08
L'illusion de l'IA : révéler la vérité et les risques des grands modèles de langage

Cet article explore la nature et les risques potentiels des grands modèles de langage (LLM). Tout en reconnaissant leurs capacités techniques impressionnantes, l'auteur soutient que les LLM ne sont pas véritablement « intelligents », mais plutôt des machines sophistiquées de probabilité qui génèrent du texte sur la base d'analyses statistiques. Beaucoup ne comprennent pas leur fonctionnement, les anthropomorphisant et développant des dépendances malsaines, voire une psychose. L'article critique la façon dont les entreprises de technologie vendent les LLM comme des entités semblables à des humains et leurs stratégies de marketing qui tirent profit du remplacement des relations humaines. Il souligne les préoccupations éthiques et sociétales découlant de l'adoption généralisée de l'IA, encourageant le public à développer l'alphabétisation en IA et à adopter une perspective plus rationnelle sur cette technologie.

Nouvelle approche du raisonnement visuel utilisant l'attention centrée sur les objets

2025-06-08
Nouvelle approche du raisonnement visuel utilisant l'attention centrée sur les objets

Les chercheurs proposent une nouvelle approche du raisonnement visuel combinant l'attention centrée sur les objets et un goulot d'étranglement relationnel. La méthode utilise d'abord un CNN pour extraire les caractéristiques de l'image. Ensuite, l'attention centrée sur les objets segmente l'image en objets, générant des représentations visuelles centrées sur les objets. Le goulot d'étranglement relationnel restreint le flux d'informations, extrayant les relations abstraites entre les objets pour comprendre les scènes complexes. Enfin, un cadre de raisonnement de machine algébrique et de séquence à séquence transforme le raisonnement visuel en un problème algébrique, améliorant l'efficacité et la précision. La méthode excelle dans les tâches de raisonnement visuel comme les Matrices Progressives de Raven.

LNP X révolutionnaire : livraison efficace d'ARNm aux cellules T au repos, pour révolutionner la thérapie contre le VIH ?

2025-06-08
LNP X révolutionnaire : livraison efficace d'ARNm aux cellules T au repos, pour révolutionner la thérapie contre le VIH ?

Des chercheurs ont développé une nouvelle nanoparticule lipidique (LNP X) capable de délivrer efficacement de l'ARNm aux cellules T CD4+ au repos sans pré-stimulation, contrairement aux formulations de LNP existantes. La composition lipidique améliorée du LNP X, intégrant le SM-102 et le β-sitostérol, améliore la délivrance cytosolique de l'ARNm et l'expression des protéines. Des études montrent que le LNP X délivre de l'ARNm codant pour la protéine Tat du VIH, inversant efficacement la latence du VIH, et délivre également des systèmes CRISPRa pour activer la transcription du VIH. Cette recherche ouvre de nouvelles voies pour le développement de la thérapie contre le VIH, avec le potentiel d'améliorer significativement les résultats des patients.

Modèles de raisonnement à grande échelle : effondrement et mise à l’échelle contre-intuitive

2025-06-08
Modèles de raisonnement à grande échelle : effondrement et mise à l’échelle contre-intuitive

Les modèles linguistiques de grande taille (LLM) récents ont donné naissance à des modèles de raisonnement à grande échelle (LRM), qui génèrent des traces de raisonnement détaillées avant de fournir des réponses. Bien qu’ils montrent des améliorations sur les benchmarks de raisonnement, leurs capacités fondamentales restent mal comprises. Ce travail étudie les LRM à l’aide d’environnements de casse-tête contrôlables, révélant un effondrement complet de la précision au-delà d’un certain seuil de complexité. Étonnamment, l’effort de raisonnement augmente avec la complexité, puis diminue malgré un budget de jetons suffisant. Comparés aux LLM standard, trois régimes ont émergé : (1) les tâches de faible complexité où les LLM standard surpassent les LRM, (2) les tâches de complexité moyenne où les LRM montrent un avantage, et (3) les tâches de haute complexité où les deux échouent. Les LRM présentent des limitations dans le calcul exact, ne parvenant pas à utiliser des algorithmes explicites et raisonnant de manière incohérente. Cette étude met en lumière les forces, les limites et les questions cruciales concernant les véritables capacités de raisonnement des LRM.

IA

La nouvelle fonction mémoire de ChatGPT : une arme à double tranchant ?

2025-06-08
La nouvelle fonction mémoire de ChatGPT : une arme à double tranchant ?

Le lancement en mars par OpenAI de la fonction de génération d'images multimodales de GPT-4 a attiré 100 millions de nouveaux utilisateurs en une semaine, un lancement de produit record. L'auteur l'a utilisé pour habiller son chien d'un costume de pélican, pour découvrir que l'IA avait ajouté un élément d'arrière-plan indésirable, compromettant sa vision artistique. Cela était dû à la nouvelle fonction mémoire de ChatGPT, qui consulte automatiquement l'historique des conversations précédentes. Bien que l'auteur ait finalement obtenu l'image souhaitée, il a estimé que cet accès automatique à la mémoire lui retirait le contrôle, ce qui l'a conduit à désactiver la fonction.

IA

Un article d'Apple met à mal les LLM : la tour de Hanoï révèle leurs limites

2025-06-08
Un article d'Apple met à mal les LLM : la tour de Hanoï révèle leurs limites

Un nouvel article d'Apple a fait des vagues au sein de la communauté IA. L'article démontre que même la dernière génération de « modèles de raisonnement » échoue à résoudre de manière fiable le problème classique de la tour de Hanoï, exposant une faille critique dans les capacités de raisonnement des grands modèles de langage (LLM). Cela rejoint les critiques de longue date de chercheurs comme Gary Marcus et Subbarao Kambhampati, qui ont mis en évidence les capacités de généralisation limitées des LLM. L'article montre que même lorsqu'on leur fournit l'algorithme de solution, les LLM échouent toujours à résoudre le problème efficacement, suggérant que leur « processus de raisonnement » n'est pas un raisonnement logique véritable. Cela indique que les LLM ne constituent pas une voie directe vers l'intelligence artificielle générale (AGI), et leurs applications nécessitent une attention particulière.

IA

La prophétie de Douglas Adams pour l'ère de l'IA : humour et perspicacité

2025-06-08
La prophétie de Douglas Adams pour l'ère de l'IA : humour et perspicacité

Cet essai commence par un débat sur la question de savoir si Douglas Adams a inventé le livre électronique, puis explore ses prédictions sur les technologies futures dans la science-fiction. L'auteur soutient que la prévoyance d'Adams dépasse celle de William Gibson, prédisant avec précision les assistants informatiques irritants (comme Clippy) et les appareils intelligents remplis d'IA. Plus important encore, Adams a anticipé le défi central de l'interaction humain-IA : formuler les bonnes questions, et non pas seulement posséder de puissantes capacités de calcul. L'auteur utilise des expériences personnelles avec des appareils intelligents pour illustrer avec humour la réalité des prédictions d'Adams, soulignant l'humour comme un indicateur clé de la perspicacité.

Claude d'Anthropic a son propre blog (avec un éditeur humain)

2025-06-07
Claude d'Anthropic a son propre blog (avec un éditeur humain)

Anthropic a lancé un blog, Claude Explains, principalement rédigé par son modèle d'IA, Claude. Bien que présenté comme l'œuvre de Claude, les articles sont en réalité affinés par l'équipe d'experts d'Anthropic, ajoutant du contexte et des exemples. Cela met en évidence une approche collaborative, montrant le potentiel de l'IA pour la création de contenu, mais aussi ses limites. Les expériences d'autres organisations médiatiques avec la rédaction par IA ont rencontré des défis similaires, notamment des imprécisions factuelles et des fabrications. Le recrutement continu d'Anthropic dans des postes liés à l'écriture suggère une approche hybride humain-IA.

LLM open source : surpassent les modèles fermés en termes de coût et de performance

2025-06-06
LLM open source : surpassent les modèles fermés en termes de coût et de performance

Si les LLM propriétaires comme GPT, Claude et Gemini dominent le secteur de l’IA de pointe, de nombreuses tâches courantes ne nécessitent pas des capacités de pointe. Cet article révèle que des alternatives open source comme Qwen et Llama égalent ou surpassent souvent les performances des modèles propriétaires pour des tâches telles que la classification, la summarisation et l’extraction de données, tout en réduisant considérablement les coûts. Les comparaisons de référence montrent des économies pouvant atteindre plus de 90 %, notamment avec l’inférence par lots. Un tableau de conversion pratique aide les entreprises à migrer vers l’open source, en maximisant les performances et en minimisant les dépenses.

1 2 11 12 13 15 17 18 19 40 41