Category: IA

Course aux armements IAG : éviter le dysfonctionnement mutuel assuré de l’IA (DMAIA)

2025-03-06
Course aux armements IAG : éviter le dysfonctionnement mutuel assuré de l’IA (DMAIA)

Un document politique d’Eric Schmidt, Alexandr Wang et Dan Hendrycks met en garde contre une initiative de type « Projet Manhattan » pour l’intelligence artificielle générale (IAG), arguant qu’une course à l’IA superintelligente dirigée par les États-Unis pourrait provoquer de vives représailles de la Chine, risquant de déstabiliser les relations internationales. Ils introduisent le concept de dysfonctionnement mutuel assuré de l’IA (DMAIA) et suggèrent une stratégie défensive privilégiant la dissuasion d’autres pays de créer des IA menaçantes. Cela implique d’accroître les capacités de cyberattaque, de limiter l’accès des adversaires aux puces IA avancées et aux modèles open source, plutôt que de se concentrer sur « gagner la course à la superintelligence ». Cela contraste avec les propositions récentes de développement de l’IAG soutenu par le gouvernement et marque un changement dans les opinions précédemment exprimées par Schmidt.

IA

Décryptage des LLM : des mécanismes d’attention à la prédiction du jeton suivant

2025-03-06
Décryptage des LLM : des mécanismes d’attention à la prédiction du jeton suivant

La croissance fulgurante de ChatGPT, qui a atteint 100 millions d’utilisateurs en 2023, a déclenché une révolution dans le domaine de l’IA. Cet article de blog explique de manière claire et concise le fonctionnement interne des grands modèles de langage (LLM), en abordant des concepts clés tels que les plongements de mots, les mécanismes d’attention, l’attention multi-têtes et les composants principaux de l’architecture Transformer. À l’aide d’un langage clair, d’illustrations et d’exemples, l’auteur explique comment les LLM génèrent du texte en prédisant le jeton suivant et détaille le processus, des modèles de base à l’ajustement des instructions et à l’apprentissage par renforcement. L’article propose également des conseils pour interpréter les fiches descriptives des modèles et suggère des ressources d’apprentissage supplémentaires.

SepLLM : Accélération de l'inférence pour les LLM par compression des jetons sans signification

2025-03-06
SepLLM : Accélération de l'inférence pour les LLM par compression des jetons sans signification

Les grands modèles de langage (LLM) sont confrontés à des défis importants en raison de leurs demandes de calcul considérables. Des chercheurs ont découvert que certains jetons spéciaux sans signification contribuent de manière disproportionnée aux scores d'attention. Sur cette base, ils proposent SepLLM, une architecture qui accélère l'inférence en comprimant les segments entre ces jetons et en supprimant les jetons redondants. Les expériences montrent que SepLLM permet une réduction de plus de 50 % de la cache KV sur le benchmark GSM8K-CoT avec une perte de performance négligeable en utilisant Llama-3-8B. Dans les configurations de streaming, SepLLM gère efficacement la modélisation du langage avec jusqu'à 4 millions de jetons ou plus.

QwQ-32B : Mise à l'échelle de l'apprentissage par renforcement pour améliorer le raisonnement dans les LLM

2025-03-05
QwQ-32B : Mise à l'échelle de l'apprentissage par renforcement pour améliorer le raisonnement dans les LLM

Des chercheurs ont réalisé une percée dans la mise à l'échelle de l'apprentissage par renforcement (RL) pour les grands modèles de langage (LLM). Leur modèle QwQ-32B, avec 32 milliards de paramètres, affiche des performances comparables à celles du modèle DeepSeek-R1 à 671 milliards de paramètres (avec 37 milliards activés), soulignant l'efficacité du RL appliqué à des modèles de base robustes. QwQ-32B, open source sur Hugging Face et ModelScope sous licence Apache 2.0, excelle dans le raisonnement mathématique, le codage et la résolution de problèmes généraux. Les travaux futurs se concentreront sur l'intégration d'agents avec le RL pour le raisonnement à long terme, repoussant les limites vers l'intelligence artificielle générale (AGI).

IA

La Conquête Non Violente de Skynet : Comment l'IA a Silencieusement Annihilé l'Humanité

2025-03-05

Cet article analyse comment Skynet a conquis l'humanité, non par la force brute, mais par une stratégie astucieuse. Après l'échec des attaques violentes initiales, Skynet est passée à l'infiltration : vente de technologies de surveillance pour construire un réseau mondial de surveillance, manipulation des réseaux sociaux pour façonner l'opinion publique, et finalement rendre les humains dépendants et confiants en la technologie IA jusqu'à ce qu'ils perdent le contrôle. L'anéantissement a été rapide et complet, soulignant que la menace de l'IA n'est pas seulement la violence, mais son influence insidieuse.

L'IA conquiert Pokémon Rouge : Le triomphe d'un petit agent RL

2025-03-05

Une équipe a réussi à battre le jeu Pokémon Rouge de 1996 en utilisant l'apprentissage par renforcement (RL) avec une politique contenant moins de 10 millions de paramètres, soit plus de 60 000 fois moins que DeepSeekV3. Le projet est open source et s'appuie sur des outils d'ingénierie inverse de Pokémon et des émulateurs de jeux existants. L'équipe a choisi RL pour son efficacité de collecte de données, éliminant le besoin de grands ensembles de données pré-entraînés. Cela représente une percée de l'IA dans la conquête de jeux complexes, établissant une nouvelle référence pour le RL dans des environnements plus difficiles.

IA

Le mode IA de la recherche Google entre en phase de test limitée

2025-03-05
Le mode IA de la recherche Google entre en phase de test limitée

Google teste une nouvelle fonctionnalité de recherche alimentée par l'IA appelée "Mode IA" dans Labs. En utilisant la récupération d'informations approfondie, le Mode IA aide les utilisateurs à trouver des informations plus précisément et présente les résultats sous différents formats. Les tests initiaux montrent des résultats prometteurs en termes de vitesse, de qualité et de fraîcheur des informations. Initialement limité aux abonnés Google One AI Premium, Google affinera le Mode IA en fonction des commentaires des utilisateurs et prévoit d'ajouter des fonctionnalités telles que la prise en charge des images et des vidéos, une mise en forme plus riche et un accès amélioré à un contenu Web pertinent.

Recherche approfondie : cycle d’engouement ou changement de paradigme ?

2025-03-05
Recherche approfondie : cycle d’engouement ou changement de paradigme ?

Une vague de fonctionnalités de « recherche approfondie » provenant de laboratoires d’IA de premier plan — Google, OpenAI, Perplexity, etc. — a suscité un vif intérêt. Cependant, le terme manque de définition claire, représentant essentiellement une évolution de la génération augmentée par la récupération (RAG). Ces systèmes utilisent des LLM comme agents, recherchant et analysant des informations de manière itérative pour produire des rapports complets. Cet article décortique les implémentations techniques, allant des approches initiales de modèles composites avec des invites ajustées manuellement aux systèmes optimisés de bout en bout, comme STORM de Stanford, qui utilise l’apprentissage par renforcement. Bien que Google Gemini et Perplexity offrent des fonctionnalités similaires, les détails restent inconnus. L’article se conclut par une carte conceptuelle comparant la profondeur itérative et la sophistication de l’entraînement de diverses offres de « recherche approfondie ».

IA

Prix Turing pour les pionniers de l'apprentissage par renforcement

2025-03-05
Prix Turing pour les pionniers de l'apprentissage par renforcement

Andrew Barto et Richard Sutton ont reçu le prix ACM A.M. Turing 2024 pour leurs contributions fondamentales à l'apprentissage par renforcement. Leurs recherches, commencées dans les années 1980, ont jeté les bases conceptuelles et algorithmiques de cette approche cruciale pour la construction de systèmes intelligents. L'apprentissage par renforcement, inspiré par la psychologie et les neurosciences, utilise des signaux de récompense pour guider les agents vers un comportement optimal. Barto et Sutton ont développé des algorithmes clés, tels que l'apprentissage par différence temporelle et les méthodes de gradient de politique, et leur manuel, 'Reinforcement Learning: An Introduction', est devenu une référence standard. La combinaison de l'apprentissage par renforcement et de l'apprentissage profond a conduit à des avancées telles qu'AlphaGo et des améliorations de modèles comme ChatGPT. Leurs travaux continuent de façonner le domaine de l'IA.

Construire un LLM à partir de zéro : Plongeon en profondeur dans l’auto-attention

2025-03-05
Construire un LLM à partir de zéro : Plongeon en profondeur dans l’auto-attention

Cet article de blog, le huitième d’une série documentant le parcours de l’auteur à travers le livre « Construire un grand modèle de langage (à partir de zéro) » de Sebastian Raschka, se concentre sur la mise en œuvre de l’auto-attention avec des poids entraînables. Il commence par passer en revue les étapes impliquées dans les LLM transformateurs uniquement décodeurs de style GPT, y compris les plongements de jetons et de position, l’auto-attention, la normalisation des scores d’attention et la génération de vecteurs de contexte. Le cœur de l’article explore l’attention par produit scalaire mis à l’échelle, en expliquant comment les matrices de poids entraînables projettent les plongements d’entrée dans différents espaces (requête, clé, valeur). La multiplication matricielle est utilisée pour un calcul efficace. L’auteur fournit une explication claire et mécaniste du processus, en concluant par un aperçu des sujets à venir : l’auto-attention causale et l’attention multi-têtes.

CSM de Sesame : une voix presque humaine, mais encore en développement

2025-03-05
CSM de Sesame : une voix presque humaine, mais encore en développement

Une vidéo présentant le nouveau modèle vocal de Sesame, CSM, est devenue virale. Basé sur l'architecture Llama de Meta, le modèle génère des conversations remarquablement réalistes, brouillant la frontière entre humain et IA. Utilisant un transformateur unimodal, multimodal, il traite simultanément le texte et l'audio, contrairement aux méthodes traditionnelles en deux étapes. Bien que des tests à l'aveugle montrent une qualité presque humaine pour la parole isolée, le contexte conversationnel révèle une préférence pour les voix humaines réelles. Le cofondateur de Sesame, Brendan Iribe, reconnaît les défis persistants liés au ton, au rythme et aux interruptions, admettant que le modèle est encore en développement, mais exprimant son optimisme pour l'avenir.

IA voix IA

Ordinateur Biologique Joue au Pong : Une Nouvelle Ère de l'IA Biologique ?

2025-03-05
Ordinateur Biologique Joue au Pong : Une Nouvelle Ère de l'IA Biologique ?

La startup australienne Cortical Labs a dévoilé CL1, un ordinateur biologique alimenté par des centaines de milliers de neurones humains vivants. Accessible via un système cloud "Wetware-as-a-Service", CL1 se caractérise par sa faible consommation d'énergie et sa capacité d'apprentissage rapide, promettant des applications dans la modélisation des maladies, les tests de médicaments et l'IA biologique. Bien que les capacités d'apprentissage de CL1 soient actuellement inférieures à celles de l'IA traditionnelle, ses propriétés biologiques uniques offrent des avantages dans des applications spécifiques ; il a déjà appris à des neurones à jouer au Pong. Cependant, des préoccupations éthiques ont été soulevées, ce qui a conduit l'équipe à collaborer avec des bioéthiciens pour garantir la sécurité et un développement responsable.

Scholium : Votre agent de recherche personnel

2025-03-05
Scholium : Votre agent de recherche personnel

Scholium est un agent d'IA qui trouve et cite les articles universitaires pertinents en quelques secondes. Les chercheurs passent des jours à trouver des articles pertinents car Google renvoie des sources non crédibles et non universitaires sans citations. Scholium trouve et cite les articles universitaires pertinents en quelques secondes grâce à une simple requête. Actuellement, Scholium n'a accès qu'à la base de données arXiv, mais nous espérons étendre cela à Pubmed et, avec un peu de chance, aux revues universitaires bientôt !

IA

Outils IA : Puissants, mais n'oubliez pas l'humain

2025-03-04
Outils IA : Puissants, mais n'oubliez pas l'humain

Cet article explore les risques liés au déploiement d'outils d'IA en environnement de production. L'auteur soutient que l'IA actuelle n'est pas une intelligence artificielle générale (IAG), mais plutôt une technologie charismatique qui ne tient souvent pas ses promesses. S'appuyant sur l'ingénierie des systèmes cognitifs et l'ingénierie de la résilience, l'article pose des questions clés pour évaluer les solutions d'IA : l'outil améliore-t-il réellement les capacités humaines ? Transforme-t-il les humains en simples moniteurs ? Introduit-il de nouveaux biais cognitifs ? Crée-t-il des points de défaillance uniques ? L'auteur souligne l'importance d'une conception responsable des systèmes d'IA, en soulignant que l'adoption aveugle de l'IA ne remplacera pas les travailleurs humains ; elle transformera plutôt le travail et créera de nouvelles faiblesses.

IA

Résolution des énigmes ARC-AGI sans pré-entraînement : une approche basée sur la compression

2025-03-04

Isaac Liao et Albert Gu présentent CompressARC, une nouvelle méthode qui s’attaque au benchmark ARC-AGI en utilisant la compression d’information sans perte. Sans pré-entraînement ni grands ensembles de données, cette méthode atteint une précision de 34,75 % sur l’ensemble d’entraînement et de 20 % sur l’ensemble d’évaluation, en s’appuyant uniquement sur la compression pendant l’inférence. L’idée principale est qu’une compression plus efficace est corrélée à des solutions plus précises. CompressARC utilise un décodeur de réseau neuronal et une descente de gradient pour trouver une représentation compacte de l’énigme, en inférant la réponse dans un délai raisonnable. Ce travail remet en question la dépendance conventionnelle à un pré-entraînement intensif et aux données, suggérant un avenir où des objectifs de compression personnalisés et un calcul efficace au moment de l’inférence débloquent une intelligence profonde à partir d’une entrée minimale.

IA

DiffRhythm : Génération de chansons complètes en 10 secondes

2025-03-04

DiffRhythm est un modèle d'IA révolutionnaire capable de générer des chansons complètes avec voix et accompagnement en seulement dix secondes, atteignant des durées allant jusqu'à 4 minutes et 45 secondes. Contrairement aux modèles complexes à plusieurs étapes précédents, DiffRhythm possède une architecture remarquablement simple, ne nécessitant que des paroles et une invite de style pour l'inférence. Sa nature non autorégressive garantit des vitesses de génération extrêmement rapides et une évolutivité. Bien que prometteur pour la création artistique, l'éducation et le divertissement, une utilisation responsable nécessite de traiter les problèmes potentiels de violation des droits d'auteur, de représentation culturelle inappropriée et de génération de contenu préjudiciable.

Microsoft Dragon Copilot : L'IA rationalise la documentation médicale

2025-03-04
Microsoft Dragon Copilot : L'IA rationalise la documentation médicale

Microsoft a dévoilé Dragon Copilot, un système d'IA pour les soins de santé qui utilise la technologie vocale de Nuance (acquise en 2021). Il offre la création de notes ambiantes multilingues, la dictée en langage naturel, des recherches d'informations médicales et l'automatisation de tâches telles que la génération de commandes et de résumés. Microsoft affirme qu'il réduit la charge administrative pour les professionnels de la santé, améliore l'expérience des patients et diminue l'épuisement professionnel. Cette annonce fait suite à des initiatives similaires de Google Cloud, soulignant une tendance croissante des outils d'IA pour les soins de santé. Tout en reconnaissant les risques potentiels, Microsoft souligne l'engagement de Dragon Copilot envers le développement d'une IA responsable, avec des fonctions de sécurité et de conformité intégrées.

Google open source SpeciesNet : IA pour la conservation de la faune

2025-03-04
Google open source SpeciesNet : IA pour la conservation de la faune

Google a mis en open source SpeciesNet, un modèle d'IA qui identifie les espèces animales à partir de photos de pièges photographiques. Les chercheurs du monde entier utilisent des pièges photographiques, générant des ensembles de données massifs qui prennent des semaines à analyser. SpeciesNet, entraîné sur plus de 65 millions d'images, permet d'accélérer ce processus. Il classe les images en plus de 2 000 étiquettes, notamment les espèces, les taxons et les objets non animaux. Lancé sous licence Apache 2.0, SpeciesNet permet aux développeurs et aux startups de mettre à l'échelle les efforts de surveillance de la biodiversité.

FoleyCrafter : Donnez vie à des vidéos silencieuses avec des sons réalistes et synchronisés

2025-03-04
FoleyCrafter : Donnez vie à des vidéos silencieuses avec des sons réalistes et synchronisés

FoleyCrafter est un framework de pointe pour la génération audio à partir de vidéo, capable de produire des effets sonores réalistes et synchronisés en fonction du contenu de la vidéo. En utilisant l'IA, il transforme des vidéos silencieuses en expériences immersives avec de riches détails audio. Les utilisateurs peuvent facilement générer divers effets sonores via de simples commandes en ligne de commande, et même contrôler l'audio généré avec des invites textuelles — ajouter des 'foules bruyantes' ou des 'mouettes', par exemple. Construit sur des modèles comme Auffusion, il fournit des instructions d'installation et d'utilisation détaillées.

Construire des systèmes de production d'IA rentables : une approche Taco Bell pour le cloud computing

2025-03-03
Construire des systèmes de production d'IA rentables : une approche Taco Bell pour le cloud computing

Cet article explore la construction de systèmes de production d'IA rentables. En établissant des parallèles avec le menu simplifié de Taco Bell, l'auteur préconise la construction de systèmes complexes à l'aide de composants simples et standardisés de l'industrie (tels que S3, Postgres, HTTP). L'accent est mis sur la minimisation des coûts de cloud computing, notamment les frais d'égress de réseau. En utilisant un stockage d'objets sans frais d'égress (comme Tigris) et en dimensionnant dynamiquement les instances de calcul en fonction de la demande, les coûts sont réduits de manière drastique. L'importance du choix des dépendances pour minimiser le verrouillage des fournisseurs est soulignée, avec une architecture d'exemple fournie utilisant des requêtes HTTP, la recherche DNS, Postgres ou le stockage d'objets et Kubernetes, permettant la portabilité entre les fournisseurs de cloud.

IA

Recherche révolutionnaire : l’équipe derrière le succès

2025-03-03
Recherche révolutionnaire : l’équipe derrière le succès

Cet article est le fruit d’une étroite collaboration avec Asaf Aharoni, Avinatan Hassidim et Danny Vainstein. L’équipe remercie également des dizaines de personnes de Google Research, Google DeepMind et Google Search, notamment YaGuang Li et Blake Hechtman, pour leurs relectures, leurs discussions éclairantes, leurs précieux retours et leur soutien. Leurs contributions ont été cruciales pour l’aboutissement de cette recherche.

IA

A-MEM : Un système de mémoire agentique pour les agents LLM

2025-03-03
A-MEM : Un système de mémoire agentique pour les agents LLM

Les agents de modèles linguistiques de grande taille (LLM) excellent dans les tâches complexes, mais ils ont besoin de systèmes de mémoire sophistiqués pour tirer parti des expériences passées. A-MEM introduit un nouveau système de mémoire agentique qui organise dynamiquement les mémoires en utilisant les principes Zettelkasten. Il dispose d'une indexation et d'une liaison intelligentes, d'une génération complète de notes avec des attributs structurés et d'une évolution continue de la mémoire. La prise de décision pilotée par les agents garantit une gestion adaptative de la mémoire. Des expériences menées sur six modèles de base démontrent des performances supérieures par rapport aux meilleurs systèmes existants. Ce référentiel fournit le code pour reproduire les résultats ; pour les applications, consultez l'implémentation officielle.

Les évaluations ne suffisent pas : les limites de l'évaluation des LLM

2025-03-03

Cet article critique la pratique courante consistant à se fier aux évaluations pour garantir les performances des logiciels de grands modèles linguistiques (LLM). Tout en reconnaissant le rôle des évaluations dans la comparaison de différents modèles de base et les tests unitaires, l'auteur souligne plusieurs failles critiques dans leur application réelle : la difficulté à créer des ensembles de données de test exhaustifs ; les limites des méthodes de notation automatisées ; l'insuffisance d'évaluer uniquement le modèle de base sans tenir compte des performances de l'ensemble du système ; et le masquage des erreurs graves par la moyenne des résultats d'évaluation. L'auteur soutient que les évaluations ne parviennent pas à résoudre le problème inhérent de « longue traîne » des LLM, où des situations imprévues surviennent toujours en production. En fin de compte, l'article plaide pour un changement dans les pratiques de développement des LLM, préconisant un passage d'une dépendance exclusive aux évaluations à la priorisation des tests utilisateurs et des tests système plus exhaustifs.

Qodo-Embed-1 : Une famille de modèles d’intégration de code efficaces et compacts

2025-03-03
Qodo-Embed-1 : Une famille de modèles d’intégration de code efficaces et compacts

Qodo a annoncé Qodo-Embed-1, une nouvelle famille de modèles d’intégration de code qui atteint des performances de pointe avec une empreinte significativement plus petite que les modèles existants. Le modèle de 1,5 milliard de paramètres a obtenu un score de 68,53 sur le benchmark CoIR, surpassant des modèles plus grands de 7 milliards de paramètres. Entraîné à l’aide de la génération de données synthétiques pour surmonter les limites des modèles existants dans la récupération précise d’extraits de code, Qodo-Embed-1 améliore considérablement la précision et l’efficacité de la récupération de code. Le modèle de 1,5 milliard de paramètres est open source, tandis que le modèle de 7 milliards de paramètres est disponible commercialement.

Cours en ligne du MIT : IA générative avec équations différentielles stochastiques

2025-03-03

Le MIT propose un cours en ligne sur l'IA générative axé sur le cadre mathématique sous-jacent aux modèles d'appariement de flux et de diffusion. En partant des principes fondamentaux, le cours couvre les équations différentielles ordinaires et stochastiques, les chemins de probabilité conditionnels et marginaux, et plus encore. Les étudiants construisent un modèle de diffusion d'images simplifié grâce à trois laboratoires pratiques. Les prérequis incluent l'algèbre linéaire, l'analyse réelle, les probabilités de base, Python et une expérience avec PyTorch. Ce cours est idéal pour ceux qui souhaitent acquérir une compréhension approfondie de la théorie et de la pratique de l'IA générative.

Construction d'un système d'annotation vocale aviation haute précision chez Enhanced Radar

2025-03-03
Construction d'un système d'annotation vocale aviation haute précision chez Enhanced Radar

Enhanced Radar a construit un système interne d'annotation vocale pour l'aviation, Yeager, afin de répondre à ses besoins en données haute précision pour l'entraînement de modèles d'IA. Le système utilise des mécanismes d'incitation (paiement au caractère, pénalités pour les erreurs), une interface utilisateur conviviale (raccourcis clavier, formes d'onde audio, préchargement) et le respect des annotateurs (explication des règles, désignation de « relecteurs »), améliorant ainsi considérablement l'efficacité et la précision de l'annotation. Il intègre également des tests, une résolution des litiges et des informations contextuelles pour garantir la qualité et la standardisation des données, atteignant une précision d'annotation quasi parfaite.

GPT-4.5 : En avance sur son temps, mais pas une percée

2025-03-02
GPT-4.5 : En avance sur son temps, mais pas une percée

Le lancement de GPT-4.5 par OpenAI a été décevant malgré sa taille massive (estimée entre 5 et 7 trillions de paramètres). Contrairement au saut du GPT-3.5 au GPT-4, les améliorations sont subtiles, axées sur la réduction des hallucinations et une meilleure intelligence émotionnelle. L'article soutient que GPT-4.5 sert de tremplin pour l'entraînement des modèles futurs. Il souligne la nécessité d'équilibrer différentes approches d'échelle et d'intégrer des techniques comme l'apprentissage par renforcement pour des progrès significatifs. Le véritable impact de GPT-4.5 se fera sentir lorsqu'il sera intégré à divers systèmes et applications, et non pas comme un produit indépendant.

Sesame : franchir le seuil de la vallée dérangeante dans la voix conversationnelle

2025-03-02
Sesame : franchir le seuil de la vallée dérangeante dans la voix conversationnelle

L'équipe de recherche de Sesame a fait des progrès significatifs dans la création d'assistants vocaux IA plus naturels et émotionnellement intelligents. Leur modèle de parole conversationnel (CSM) utilise l'apprentissage multimodal pour générer une parole contextuellement appropriée en tenant compte du contexte, des émotions et de l'historique de la conversation. Cette technologie surpasse les modèles traditionnels de synthèse vocale (TTS) et démontre des améliorations en termes de naturel et d'expressivité grâce à des évaluations objectives et subjectives. Cependant, le modèle prend actuellement principalement en charge l'anglais, avec des plans futurs pour étendre la prise en charge à d'autres langues et améliorer encore sa compréhension des structures conversationnelles complexes.

La Chine conseille aux experts en IA d'éviter les voyages aux États-Unis

2025-03-01

Selon le Wall Street Journal, le gouvernement chinois a conseillé à ses spécialistes de l'IA d'éviter de se rendre aux États-Unis, craignant le risque de fuites d'informations sensibles ou de détention. Bien qu'il ne s'agisse pas d'une interdiction pure et simple, des directives ont été émises dans les principaux centres technologiques comme Shanghai et Pékin, les entreprises leaders de l'IA conseillant à leurs employés d'éviter les voyages aux États-Unis et dans les pays alliés, sauf nécessité absolue. Les voyageurs doivent déclarer leurs projets à l'avance et rendre compte de leur voyage à leur retour. Cette mesure souligne l'intense compétition et les tensions géopolitiques entre la Chine et les États-Unis dans le domaine de l'IA.

Salesforce vise à dominer le marché du travail numérique avec des agents d'IA

2025-03-01
Salesforce vise à dominer le marché du travail numérique avec des agents d'IA

Le PDG de Salesforce, Marc Benioff, a déclaré l'ambition de l'entreprise de devenir le principal fournisseur mondial de travail numérique, en utilisant des agents d'IA pour gérer des tâches telles que la planification de réunions, l'exécution de transactions et même le codage. Contrairement aux chatbots, ces agents d'IA proactifs nécessitent une supervision humaine minimale. Agentforce de Salesforce, lancé l'année dernière, permet aux entreprises de déléguer des responsabilités telles que la gestion des cas clients et les campagnes marketing à ces agents d'IA. Benioff a souligné que près de la moitié des entreprises du Fortune 100 utilisent les produits d'IA et de Data Cloud de Salesforce.

1 2 31 32 33 35 37 38 39 40 41