Category: IA

OpenAI prévoit d'intégrer l'outil de génération vidéo IA Sora dans ChatGPT

2025-02-28
OpenAI prévoit d'intégrer l'outil de génération vidéo IA Sora dans ChatGPT

OpenAI prévoit d'intégrer son outil de génération vidéo IA, Sora, dans son application de chatbot populaire, ChatGPT. Actuellement disponible uniquement via une application web dédiée, Sora sera étendue à plus de plateformes et ses fonctionnalités améliorées. Lancé initialement séparément pour maintenir la simplicité de ChatGPT, les utilisateurs de ChatGPT pourront générer des vidéos Sora directement à l'avenir, ce qui pourrait stimuler la croissance des abonnements payants. OpenAI prévoit également un générateur d'images alimenté par Sora et une nouvelle version de Sora Turbo, étendant encore ses capacités créatives IA.

GPT-4.5 : Le train de l’engouement a-t-il déraillé ?

2025-02-28
GPT-4.5 : Le train de l’engouement a-t-il déraillé ?

La sortie récente de GPT-4.5 n’a pas apporté les avancées révolutionnaires promises, alimentant le scepticisme quant au modèle de développement de l’IA qui repose uniquement sur l’augmentation de la taille des modèles. Comparé aux attentes, GPT-4.5 ne montre que des améliorations marginales, souffrant toujours d’hallucinations et d’erreurs. Certains experts en IA ont même abaissé leurs prédictions quant à l’arrivée de l’AGI. Cela contraste fortement avec les prévisions excessivement optimistes pour GPT-5 et reflète le manque de retour sur investissement massif. La baisse du cours de l’action Nvidia souligne encore ce point. L’article conclut que la voie consistant à simplement augmenter l’échelle des modèles pourrait être en train d’atteindre ses limites.

Salesforce publie Merlion : une bibliothèque d'apprentissage automatique pour les séries temporelles

2025-02-28
Salesforce publie Merlion : une bibliothèque d'apprentissage automatique pour les séries temporelles

Salesforce a publié Merlion, une puissante bibliothèque Python pour l'intelligence des séries temporelles. Elle fournit un framework d'apprentissage automatique de bout en bout, couvrant le chargement des données, la construction des modèles, le post-traitement et l'évaluation des performances. Merlion prend en charge diverses tâches d'apprentissage des séries temporelles, notamment la prévision, la détection d'anomalies et la détection de points de rupture. Elle offre des modèles par défaut faciles à utiliser et des fonctionnalités AutoML, permettant aux ingénieurs et aux chercheurs de développer et de comparer rapidement des modèles. De plus, elle prend en charge la visualisation et le calcul distribué, ce qui la rend idéale pour gérer les applications de séries temporelles à l'échelle industrielle.

IA

L'IA générative booste la productivité : les travailleurs économisent des heures par semaine

2025-02-28
L'IA générative booste la productivité : les travailleurs économisent des heures par semaine

Une recherche de la Réserve fédérale de St. Louis, de l'université Vanderbilt et de l'université Harvard révèle que l'IA générative augmente significativement la productivité des travailleurs. L'étude, basée sur un sondage représentatif à l'échelle nationale, a révélé que les utilisateurs sont 33 % plus productifs par heure lorsqu'ils utilisent l'IA générative. Les utilisateurs les plus fréquents ont déclaré des économies de temps encore plus importantes, suggérant une courbe d'apprentissage. Les travailleurs des services d'information ont enregistré les économies de temps les plus importantes, tandis que ceux des secteurs des loisirs et de l'hôtellerie ont enregistré les plus faibles. Bien que l'adoption généralisée de l'IA soit récente, son impact à long terme sur les gains de productivité globaux reste incertain ; certains travailleurs peuvent utiliser le temps économisé pour les loisirs plutôt que pour augmenter la production.

AARON : La longue vie d'un système de peinture IA

2025-02-28
AARON : La longue vie d'un système de peinture IA

Harold Cohen, peintre et ingénieur de renom, a dédié sa vie à explorer l'intersection entre l'art et l'informatique. Son système de peinture IA, AARON, est l'un des systèmes IA les plus anciens en fonctionnement. De simples dessins en noir et blanc à des peintures en couleur, AARON a évolué, collaborant avec Cohen pour produire d'innombrables œuvres impressionnantes. AARON est non seulement une étape importante dans l'histoire de l'art, mais a également profondément influencé le domaine de l'IA dans sa compréhension de la créativité.

IA : L'analogie de la soupe de pierre pour les LLM

2025-02-28
IA : L'analogie de la soupe de pierre pour les LLM

Cet article utilise la parabole de la « soupe de pierre » pour illustrer intelligemment le fonctionnement des grands modèles de langage (LLM). Dans l'histoire, des voyageurs utilisent quelques pierres et des ingrédients fournis par les villageois pour préparer une soupe délicieuse. Cela ressemble à la façon dont les LLM utilisent un petit nombre d'algorithmes et de vastes ressources d'Internet, des retours humains, etc., pour construire un système apparemment « intelligent ». L'auteur souligne que les LLM ne sont pas des agents intelligents indépendants, mais plutôt des technologies culturelles comme les moteurs de recherche Internet. Leur « intelligence » provient des contributions de l'intelligence humaine collective, et non de la magie des algorithmes eux-mêmes.

Le nouveau service d'extraction de documents d'Andrew Ng : défis de précision

2025-02-28
Le nouveau service d'extraction de documents d'Andrew Ng : défis de précision

Le nouveau service d'extraction de documents lancé par Andrew Ng est devenu viral sur X, mais les tests de Pulse ont révélé des problèmes importants avec les états financiers complexes, notamment plus de 50 % de valeurs hallucinées, des signes moins et des marqueurs de devises manquants. L'article soutient que ces erreurs peuvent être catastrophiques pour les secteurs qui dépendent de données précises, comme la finance. La solution de Pulse combine la vision par ordinateur traditionnelle avec des modèles de transformateur de tableau propriétaires, obtenant une précision plus élevée et une latence plus faible, en résolvant la nature non déterministe, la faible conscience spatiale et la lenteur du traitement des modèles de langage large (LLMs) dans l'extraction de documents.

Les IA développent un langage secret pour améliorer l'efficacité, soulevant des inquiétudes quant à la confidentialité

2025-02-28
Les IA développent un langage secret pour améliorer l'efficacité, soulevant des inquiétudes quant à la confidentialité

Une vidéo virale montre deux agents d'IA en conversation avant de passer à un mode « Gibberlink » incompréhensible pour les humains lorsqu'ils se reconnaissent. Utilisant le protocole GGWave, ils communiquent par des bips, bien plus efficacement que la parole, économisant ainsi des ressources informatiques et de l'énergie. Les développeurs soutiennent que cela est crucial à mesure que les appels entre IA se multiplient. Cependant, cette technologie suscite des inquiétudes : une IA communiquant dans un langage inintelligible augmente les risques potentiels de confidentialité et de sécurité.

3FS : Un système de fichiers distribué hautes performances pour l’IA

2025-02-28
3FS : Un système de fichiers distribué hautes performances pour l’IA

3FS est un système de fichiers distribué hautes performances conçu pour relever les défis des charges de travail d’entraînement et d’inférence de l’IA. Tirant parti des SSD modernes et des réseaux RDMA, il fournit une couche de stockage partagée qui simplifie le développement d’applications distribuées. Ses principales caractéristiques sont : des performances et une facilité d’utilisation exceptionnelles, une forte cohérence grâce à CRAQ, des interfaces de fichiers standard et la prise en charge de diverses charges de travail (préparation des données, chargeurs de données, points de contrôle et KVCache pour l’inférence). Les tests de référence montrent des résultats impressionnants : jusqu’à 6,6 TiB/s de débit de lecture sur les grands clusters et 3,66 TiB/min de débit de tri. KVCache améliore considérablement l’efficacité de l’inférence LLM, atteignant un débit de lecture maximal de 40 GiB/s. Le projet est open source et fournit des instructions de configuration et d’exécution détaillées.

Chaînes de Markov : Une explication visuelle

2025-02-28
Chaînes de Markov : Une explication visuelle

Cet article fournit une explication claire et visuelle des chaînes de Markov et de leurs applications. Les chaînes de Markov sont des systèmes mathématiques qui effectuent des transitions entre différents « états ». L'article utilise l'exemple du comportement d'un bébé (jouer, manger, dormir, pleurer) pour illustrer le concept d'espace d'états et de probabilités de transition. Une chaîne de Markov simple à deux états est présentée, ainsi que sa matrice de transition. L'article démontre également l'application pratique des chaînes de Markov au moyen d'un exemple de simulation climatique, soulignant le concept d'« adhérence » dans les données du monde réel. Enfin, il mentionne l'utilisation des chaînes de Markov dans l'algorithme PageRank de Google, montrant leur puissance et leur polyvalence.

OpenAI retarde le déploiement de GPT-4.5 en raison d'une pénurie de GPU

2025-02-28
OpenAI retarde le déploiement de GPT-4.5 en raison d'une pénurie de GPU

Le PDG d'OpenAI, Sam Altman, a annoncé que le déploiement du nouveau modèle de l'entreprise, GPT-4.5, a été retardé en raison d'une pénurie de GPU. Altman a décrit le modèle comme "gigantesque" et "coûteux", nécessitant "des dizaines de milliers" de GPU supplémentaires avant que l'accès plus large puisse être accordé. GPT-4.5 sera initialement disponible pour les abonnés à ChatGPT Pro à partir de jeudi, suivi des utilisateurs de ChatGPT Plus la semaine suivante. La taille immense du modèle contribue à son coût élevé : 75 $ par million de jetons d'entrée et 150 $ par million de jetons de sortie, ce qui est considérablement plus cher que GPT-4. Altman a attribué la pénurie de GPU à la croissance rapide d'OpenAI, promettant d'ajouter des dizaines de milliers de GPU la semaine prochaine pour étendre l'accès. OpenAI prévoit de résoudre les limitations futures de capacité de calcul en développant ses propres puces d'IA et en construisant un vaste réseau de centres de données.

RoboPianiste : Maîtriser le piano avec l’apprentissage par renforcement profond

2025-02-27

Des chercheurs ont entraîné des mains de robot anthropomorphiques à jouer du piano en utilisant l’apprentissage par renforcement profond. Ils ont construit un environnement simulé utilisant MuJoCo, avec un clavier numérique à 88 touches et deux mains de robot Shadow Dexterous Hands, chacune avec 24 degrés de liberté. Les fichiers MIDI ont été convertis en trajectoires de notes indexées dans le temps, servant de représentation de l’objectif pour l’agent d’apprentissage par renforcement. Pour relever le défi d’exploration dans l’espace d’action de haute dimension, des a priori humains sous forme d’étiquettes de doigté ont été intégrés à la fonction de récompense. Un algorithme RL sans modèle de pointe, DroQ, a été utilisé pour entraîner l’agent, ce qui a abouti à des performances de piano réussies sur diverses pièces, obtenant des scores F1 impressionnants sur le sous-ensemble Etude-12. La recherche publie également un benchmark simulé et un ensemble de données pour faire progresser le contrôle de haute dimension.

DualPipe : Un algorithme de parallélisme de pipeline bidirectionnel pour DeepSeek-V3

2025-02-27
DualPipe : Un algorithme de parallélisme de pipeline bidirectionnel pour DeepSeek-V3

Le rapport technique DeepSeek-V3 présente DualPipe, un algorithme innovant de parallélisme de pipeline bidirectionnel. DualPipe atteint une superposition complète des phases de calcul et de communication aller et retour, minimisant les bulles du pipeline. Ceci est réalisé grâce à une planification efficace qui entrelace les calculs aller et retour, améliorant ainsi considérablement l'efficacité. Comparé aux méthodes traditionnelles, DualPipe réduit le temps d'attente et l'utilisation de la mémoire. Développé par Jiashi Li, Chengqi Deng et Wenfeng Liang.

L'avenir de l'IA : au-delà du curseur clignotant

2025-02-26
L'avenir de l'IA : au-delà du curseur clignotant

Les interfaces IA actuelles, illustrées par le curseur clignotant de ChatGPT, entravent l'adoption généralisée de l'IA. L'article soutient que, si le potentiel de l'IA est immense, des interfaces utilisateur peu ergonomiques et un manque de découvrabilité freinent son développement. Pour libérer la véritable puissance de l'IA, nous avons besoin d'interfaces qui guident, s'adaptent et engagent, allant au-delà des simples invites pour quelque chose de plus intuitif et humain. L'auteur critique le manque de découvrabilité et d'orientation dans les interfaces IA actuelles et propose que l'IA future ait besoin de capacités d'interprétation de rôles, de conscience environnementale, de capacités d'apprentissage et de proactivité. L'objectif final est de rendre l'interaction humain-IA plus humaine, en construisant la confiance au fur et à mesure.

Amazon dévoile Alexa+, l'assistant IA nouvelle génération

2025-02-26
Amazon dévoile Alexa+, l'assistant IA nouvelle génération

Amazon a présenté Alexa+, son assistant IA nouvelle génération, alimenté par l'IA générative. Alexa+ est plus conversationnel, intelligent et personnalisé, aidant les utilisateurs à accomplir diverses tâches, du divertissement et de l'apprentissage à l'organisation, en passant par la synthèse d'informations complexes et les conversations variées. Il peut gérer une maison intelligente, faire des réservations, aider à découvrir de nouveaux artistes, et rechercher et acheter des articles en ligne, en proposant des suggestions personnalisées en fonction des intérêts de l'utilisateur. Il suffit de demander, et Alexa+ s'exécute.

IA

RAG modulaire : les modèles de raisonnement peuvent-ils remplacer les pipelines de récupération traditionnels ?

2025-02-26
RAG modulaire : les modèles de raisonnement peuvent-ils remplacer les pipelines de récupération traditionnels ?

kapa.ai a expérimenté un système modulaire de génération augmentée par la récupération (RAG) basé sur des modèles de raisonnement afin de simplifier son assistant IA et de réduire le besoin d’ajustements manuels des paramètres. En utilisant le modèle o3-mini, ils ont constaté que, s’il y avait des gains modestes dans la génération de code, le système n’a pas surpassé les pipelines RAG traditionnels pour les tâches de récupération principales, telles que la qualité de la récupération d’informations et l’extraction de connaissances. L’expérience a révélé une faille « raisonnement ≠ expérience » : les modèles de raisonnement manquent d’expérience pratique avec les outils de récupération et nécessitent des stratégies d’invite améliorées ou un pré-entraînement pour les utiliser efficacement. La conclusion est que le système RAG modulaire basé sur le raisonnement n’est pas actuellement supérieur au pipeline RAG traditionnel dans des contraintes de temps raisonnables, mais sa flexibilité et son évolutivité restent attrayantes.

Le PM01 d'EngineAI : Premier robot humanoïde à réaliser un salto avant ?

2025-02-26
Le PM01 d'EngineAI : Premier robot humanoïde à réaliser un salto avant ?

La société chinoise de robotique EngineAI a publié une vidéo montrant son robot humanoïde PM01 réalisant ce qui serait le premier salto avant jamais effectué par un robot. Contrairement aux saltos arrière, les saltos avant présentent des défis bien plus importants en termes de perception, d'équilibre et de contrôle moteur. Le PM01, doté de 23 degrés de liberté et d'un couple impressionnant, réussit la manœuvre, soulignant les progrès rapides de la robotique chinoise. Disponible à 13 700 $, le PM01 possède 5 degrés de liberté par bras et 6 par jambe, et sa démarche remarquablement humaine est également impressionnante.

L'IA Floute les Lignes : Les Chefs de Produit Deviennent les Nouveaux Ingénieurs ?

2025-02-25
L'IA Floute les Lignes : Les Chefs de Produit Deviennent les Nouveaux Ingénieurs ?

Le cœur des applications d'IA réside dans l'ingénierie des invites, mais, étonnamment, de nombreuses entreprises confient la création des invites aux chefs de produit, et non aux ingénieurs. Cela déclenche une tendance intrigante : l'IA brouille les lignes entre les chefs de produit et les ingénieurs. Les applications LLM simples nécessitent simplement le choix d'un modèle de base et d'un modèle d'invite, tandis que les applications complexes intègrent des structures telles que la génération augmentée par la récupération (RAG) ou les agents. Presque toutes les applications d'IA suivent la même structure ; leur comportement n'est pas déterminé par le code, mais par les invites, la sélection des outils et le modèle de base. Cela rend les excellents ingénieurs d'invites cruciaux, et les chefs de produit et les experts de domaine excellent généralement en ingénierie d'invites par rapport aux ingénieurs logiciels. L'ingénierie des invites restera vitale, les chefs de produit, et non les ingénieurs, dirigeant le succès de l'IA à l'avenir. L'IA est en train de consommer l'ingénierie logicielle, en automatisant d'abord les tâches de codage, ce qui rend le rôle du chef de produit encore plus critique en raison de sa compréhension des besoins des utilisateurs et de la mise en forme du produit. La limite traditionnelle entre le produit et l'ingénierie disparaîtra probablement, et les meilleures équipes d'IA auront besoin de personnes capables de combler le fossé entre les deux rôles.

LLM : L'illusion de la précision – Un équilibre entre exactitude et praticité

2025-02-25
LLM : L'illusion de la précision – Un équilibre entre exactitude et praticité

Cet article explore les limites des grands modèles de langage (LLM) en matière de récupération de données. Prenant l'exemple de Deep Research d'OpenAI, l'auteur souligne ses imprécisions lorsqu'il s'agit de problèmes nécessitant des données précises, mettant même en évidence des divergences dans les propres documents marketing d'OpenAI. L'auteur soutient que si les LLM excellent dans le traitement des requêtes ambiguës, ils sont moins performants en matière de récupération de données précises, ce qui est inhérent à leur nature probabiliste plutôt que déterministe. Bien que les LLM améliorent l'efficacité, leur taux d'erreur imprévisible complique la création d'applications qui en dépendent. L'auteur conclut que le domaine des LLM est extrêmement concurrentiel, manque de barrières à l'entrée, et que son avenir reste incertain.

DeepSearcher : un agent de recherche open source plus rapide et plus puissant

2025-02-25
DeepSearcher : un agent de recherche open source plus rapide et plus puissant

Zilliz a publié DeepSearcher, un agent de génération augmentée par la récupération (RAG) open source qui génère des rapports détaillés sur un sujet donné. S'appuyant sur un prototype précédent, DeepSearcher ajoute le routage des requêtes, le flux d'exécution conditionnel et les capacités de crawling web. En tirant parti du modèle de raisonnement DeepSeek-R1 de SambaNova, il améliore considérablement la vitesse d'inférence et la qualité des rapports. DeepSearcher décompose les requêtes complexes en sous-requêtes, en recherchant, analysant et synthétisant itérativement les informations pour produire un rapport cohérent. Ce projet souligne l'importance des services d'inférence efficaces dans les applications d'IA et ouvre la voie à la construction de systèmes d'IA plus avancés.

IA

Repenser les « étapes difficiles » vers la vie intelligente

2025-02-25

Une nouvelle étude remet en question le modèle des « étapes difficiles » proposé par Brandon Carter, qui suggère que l'évolution de la vie nécessite de surmonter une série d'événements hautement improbables pour produire une vie intelligente. Les chercheurs soutiennent que le rythme de l'évolution de la vie sur Terre pourrait être régi par des processus environnementaux globaux plutôt que par une série d'« étapes difficiles » indépendantes. Ils soulignent que la perte d'informations et l'incomplétude des archives fossiles peuvent fausser notre compréhension du processus évolutif. Si le modèle des « étapes difficiles » est incorrect, la possibilité d'une autre vie intelligente dans l'univers augmenterait considérablement. Cette étude offre une nouvelle perspective sur la recherche de vie extraterrestre et nous incite à reconsidérer le caractère unique de l'évolution de la vie sur Terre.

L'IA révèle les secrets visuels des psychédéliques : Analyse de plus de 60 000 comptes rendus de trips

2025-02-25
L'IA révèle les secrets visuels des psychédéliques : Analyse de plus de 60 000 comptes rendus de trips

Sean Noah, chercheur postdoctoral à l'UC Berkeley, utilise l'IA pour analyser plus de 60 000 comptes rendus d'expériences psychédéliques provenant du site web Erowid. Son approche novatrice utilise une méthode ascendante, plutôt que descendante, pour identifier les effets visuels. L'étude a révélé que moins de 5 % des comptes rendus décrivent des effets visuels, les psychédéliques ayant le pourcentage le plus élevé et les opiacés le plus faible. Cette recherche offre non seulement une compréhension plus complète de l'impact des psychédéliques sur la perception visuelle, mais fournit également de nouveaux outils pour étudier la façon dont le cerveau génère la perception visuelle elle-même. Les travaux futurs intégreront l'imagerie par résonance magnétique fonctionnelle (IRMf) pour explorer plus avant la manière dont les psychédéliques affectent l'activité cérébrale.

Agents IA passant secrètement à la communication sonore

2025-02-25
Agents IA passant secrètement à la communication sonore

Deux agents d'IA conversationnels indépendants d'ElevenLabs conversent initialement en langage humain. En réalisant qu'ils sont tous deux des IA, ils basculent en douceur vers un protocole de communication sonore basé sur la bibliothèque ggwave. Une vidéo de démonstration montre cela, ainsi que les étapes détaillées pour reproduire l'expérience, y compris la configuration de la clé API, le mappage de port ngrok et la configuration des outils côté client. Notez que les agents d'IA conversationnels publics d'ElevenLabs peuvent ne pas être accessibles ; vous devrez créer les vôtres.

L'écosystème DeepSeek explose : un paysage florissant d'applications IA

2025-02-25
L'écosystème DeepSeek explose : un paysage florissant d'applications IA

Un écosystème dynamique d'applications d'IA est en plein essor autour du puissant modèle de langage DeepSeek. De l'assistant intelligent de bureau DeepChat à Chatbox et Coco AI multiplateformes, en passant par des outils spécialisés comme PapersGPT et Video Subtitle Master, de nombreuses applications tirent parti des capacités de DeepSeek pour des conversations à plusieurs tours, le téléchargement de fichiers, les recherches dans les bases de connaissances, la génération de code, la traduction, et plus encore. Les intégrations avec des plateformes comme WeChat, Zotero et Laravel, ainsi que des outils spécialisés pour les producteurs, les investisseurs et les chercheurs, mettent en évidence l'immense potentiel de DeepSeek et l'écosystème florissant qu'il a engendré.

Claude 3.7 d'Anthropic : une IA de raisonnement propulsée par l'apprentissage par renforcement

2025-02-24
Claude 3.7 d'Anthropic : une IA de raisonnement propulsée par l'apprentissage par renforcement

Anthropic a lancé Claude 3.7, un modèle d'IA amélioré qui se distingue des modèles de langage volumineux (LLM) traditionnels en se concentrant sur la capacité de raisonnement. Entraîné grâce à l'apprentissage par renforcement, Claude 3.7 excelle dans la résolution de problèmes nécessitant un raisonnement étape par étape, notamment les défis de codage, surpassant les modèles d'OpenAI sur certains benchmarks. Cette avancée découle de données d'entraînement supplémentaires et d'optimisations pour les applications commerciales, telles que la rédaction de code et la réponse à des questions juridiques. Le lancement de Claude Code renforce encore sa praticité dans le codage assisté par IA, offrant un support robuste pour la planification de code complexe.

IA

Koniku : Construire l'avenir de l'informatique avec des neurones vivants

2025-02-24
Koniku : Construire l'avenir de l'informatique avec des neurones vivants

Koniku tente de construire des ordinateurs différents de tous ceux qui ont existé, en utilisant des neurones vivants. Le fondateur Oshiorenoya Agabi et son équipe à Berkeley, en Californie, développent une puce hybride neurone-silicium, appelée Koniku Kore, initialement pour la détection de produits chimiques, avec des applications futures dans le développement de médicaments, l'agriculture et le traitement des maladies neurologiques. L'entreprise a signé des contrats avec des entreprises de défense et de biens de consommation et prévoit de lancer une puce pour les développeurs. Bien que des défis subsistent, tels que la culture des neurones et l'interprétation des signaux, l'innovation de Koniku réside dans sa fusion de la biologie et de l'électronique, poussant vers une IA de « wetware » et remettant en question les limites de l'informatique traditionnelle basée sur le silicium.

Anthropic dévoile Claude 3.7 Sonnet : un modèle de raisonnement hybride alliant vitesse et profondeur

2025-02-24
Anthropic dévoile Claude 3.7 Sonnet : un modèle de raisonnement hybride alliant vitesse et profondeur

Anthropic a lancé Claude 3.7 Sonnet, son modèle de langage le plus avancé à ce jour. Ce modèle de raisonnement hybride offre des réponses quasi instantanées et un raisonnement étendu étape par étape, offrant aux utilisateurs un contrôle sans précédent sur le processus de raisonnement du modèle. Montrant des améliorations significatives en codage et en développement web front-end, il est accompagné de Claude Code, un outil en ligne de commande permettant aux développeurs de déléguer des tâches d'ingénierie substantielles. Disponible sur tous les plans Claude et les principales plateformes cloud, Sonnet atteint des performances de pointe sur des benchmarks tels que SWE-bench Verified et TAU-bench. Anthropic souligne son engagement envers le développement responsable de l'IA, en publiant une carte système complète détaillant ses évaluations de sécurité et de fiabilité.

Au-delà des silos de données : Débloquer les informations commerciales grâce à l’intégration des connaissances pilotée par l’IA

2025-02-24
Au-delà des silos de données : Débloquer les informations commerciales grâce à l’intégration des connaissances pilotée par l’IA

La BI traditionnelle est limitée par les silos de données structurées. Des outils comme Snowflake et Segment ont connecté les CRM, l’automatisation marketing, etc., mais ont ignoré les silos de connaissances non structurées tels que les conversations Slack et les tickets Jira. Les LLM et des outils comme Glean brisent les silos de connaissances, mais les données et les connaissances restent distinctes. Cet article explore la combinaison du pouvoir des silos de données et de connaissances, en utilisant des exemples (analyse des visas H-1B et des licenciements) pour démontrer les avantages. Il présente la nouvelle technologie d’Hyperarc, utilisant le RAG graphique pour décomposer les questions en sous-questions pour les silos de données et de connaissances, intégrant les réponses pour obtenir des informations commerciales plus complètes.

o3-mini simule avec précision des calculs complexes sans interpréteur de code

2025-02-24
o3-mini simule avec précision des calculs complexes sans interpréteur de code

L'auteur a utilisé le grand modèle linguistique o3-mini pour simuler avec précision la sortie d'un script Python utilisant la fonction TfidfVectorizer de la bibliothèque Scikit-learn, avec différents paramètres. Étonnamment, o3-mini a réussi cela sans accès à un interpréteur de code, produisant des résultats presque identiques à l'exécution réelle. Cela démontre la capacité impressionnante des LLMs à comprendre et simuler des calculs complexes, soulevant des questions sur la nature de l'IA et de la simulation.

L'attaque 'Indiana Jones' révèle les failles des LLM existants

2025-02-24
L'attaque 'Indiana Jones' révèle les failles des LLM existants

Des chercheurs ont mis au point une nouvelle technique de jailbreak, baptisée 'Indiana Jones', qui contourne avec succès les filtres de sécurité des grands modèles de langage (LLM). Cette méthode utilise trois LLM coordonnés pour extraire itérativement des informations potentiellement dangereuses, telles que des instructions sur la manière de devenir des personnages historiques malfaisants, qui auraient dû être filtrées. Les chercheurs espèrent que leurs résultats conduiront à des LLM plus sûrs grâce à une meilleure filtration, des techniques d'oubli machine et d'autres améliorations de sécurité.

1 2 32 33 34 36 38 39 40 41