Category: IA

Les prédictions d'Asimov sur l'IA en 1982 : Collaboration, pas compétition

2025-04-10
Les prédictions d'Asimov sur l'IA en 1982 : Collaboration, pas compétition

Cet article revient sur une interview de 1982 avec l'écrivain de science-fiction Isaac Asimov, où il définissait l'intelligence artificielle comme tout dispositif effectuant des tâches auparavant associées uniquement à l'intelligence humaine. Asimov voyait l'IA et l'intelligence humaine comme complémentaires, non concurrentes, arguant que leur collaboration mènerait à un progrès plus rapide. Il prévoyait que l'IA libérerait les humains des tâches ne nécessitant pas de pensée créative, mais mettait aussi en garde contre les difficultés et les défis potentiels du progrès technologique, en prenant l'exemple de l'arrivée de l'automobile. Il soulignait la nécessité de se préparer à l'ère de l'IA et d'éviter de répéter les erreurs du passé.

Benchmark d'écriture créative longue forme pour les LLM

2025-04-10

Ce benchmark évalue la capacité des grands modèles de langage à créer des récits de longue forme. Il évalue le brainstorming, la révision et la rédaction de huit chapitres de 1000 mots. Les métriques incluent la longueur des chapitres, la fluidité (en évitant les phrases surutilisées), la répétition et la dégradation de la qualité de l'écriture au fil des chapitres. Un score final (0-100) est attribué par un LLM d'évaluation.

Quasar Alpha : L’arme secrète d’OpenAI ?

2025-04-10
Quasar Alpha : L’arme secrète d’OpenAI ?

Un mystérieux modèle d’IA nommé Quasar Alpha a fait son apparition sur la plateforme OpenRouter, devenant rapidement le modèle d’IA numéro un pour la programmation. De nombreux indices suggèrent un lien avec OpenAI, et il pourrait même s’agir du modèle o4-mini-low d’OpenAI sous un autre nom. Bien qu’il ne soit pas le plus performant, sa vitesse et son rapport coût-efficacité pourraient bouleverser le marché des modèles de codage IA. Quasar Alpha est désormais disponible sur Kilo Code.

IA

Anthropic lance un abonnement premium pour son chatbot IA Claude Max

2025-04-09
Anthropic lance un abonnement premium pour son chatbot IA Claude Max

Anthropic a lancé un nouveau plan d'abonnement premium pour son chatbot IA, Claude Max, afin de concurrencer le ChatGPT Pro d'OpenAI. Max offre des limites d'utilisation plus élevées et un accès prioritaire aux nouveaux modèles et fonctionnalités d'IA par rapport à l'abonnement Claude Pro à 20 $ par mois d'Anthropic. Il est disponible en deux niveaux : 100 $ par mois (limite de débit 5x) et 200 $ par mois (limite de débit 20x). Cette mesure vise à augmenter les revenus pour le développement coûteux de modèles d'IA de pointe. Anthropic explore également d'autres sources de revenus, telles que Claude for Education, destiné aux universités. Bien que le nombre d'abonnements ne soit pas divulgué, le nouveau modèle Claude 3.7 Sonnet de la société a généré une forte demande.

Un robot de thérapie IA prometteur pour lutter contre la crise de santé mentale

2025-04-09
Un robot de thérapie IA prometteur pour lutter contre la crise de santé mentale

Une nouvelle étude publiée dans le New England Journal of Medicine révèle qu'un robot de thérapie IA, développé par des chercheurs de Dartmouth, a démontré une efficacité comparable, voire supérieure, à celle des cliniciens humains dans un essai clinique randomisé. Conçu pour faire face à la grave pénurie de professionnels de santé mentale aux États-Unis, le robot a subi plus de cinq ans d'entraînement rigoureux aux meilleures pratiques cliniques. Les résultats ont montré non seulement une amélioration des résultats de santé mentale pour les patients, mais aussi le développement surprenant de liens thérapeutiques forts et de confiance. Bien que l'American Psychological Association ait exprimé des inquiétudes concernant les robots de thérapie IA non réglementés, elle salue l'approche rigoureuse de cette étude. Les chercheurs soulignent que la technologie est loin d'être prête pour le marché, nécessitant des essais supplémentaires, mais qu'elle offre une solution potentielle à la crise généralisée d'accès aux soins de santé mentale.

Google dévoile Ironwood : une TPU de 7e génération pour l'ère de l'inférence

2025-04-09
Google dévoile Ironwood : une TPU de 7e génération pour l'ère de l'inférence

Lors de Google Cloud Next '25, Google a annoncé Ironwood, sa septième génération de Tensor Processing Unit (TPU). Il s'agit de l'accélérateur IA personnalisé le plus puissant et le plus évolutif à ce jour, spécialement conçu pour l'inférence. Ironwood marque un tournant vers une ère proactive de « l'inférence », où les modèles d'IA génèrent des informations et des réponses, et pas seulement des données. Évoluant jusqu'à 9 216 puces refroidies par liquide interconnectées via une technologie ICI révolutionnaire (près de 10 MW), Ironwood est un composant clé de l'architecture hyper-ordinateur IA de Google Cloud. Les développeurs peuvent exploiter la pile logicielle Pathways de Google pour facilement exploiter la puissance de dizaines de milliers de TPU Ironwood.

Agent2Agent (A2A) : Une nouvelle ère d'interopérabilité des agents IA

2025-04-09
Agent2Agent (A2A) : Une nouvelle ère d'interopérabilité des agents IA

Google lance Agent2Agent (A2A), un protocole ouvert permettant une collaboration transparente entre les agents IA construits par différents fournisseurs ou utilisant différents frameworks. Soutenu par plus de 50 partenaires technologiques et fournisseurs de services, A2A permet un échange sécurisé d'informations et des actions coordonnées, augmentant ainsi la productivité et réduisant les coûts. Basé sur des standards existants, A2A supporte plusieurs modalités, privilégie la sécurité et gère les tâches de longue durée. Les cas d'utilisation vont de l'automatisation des processus de recrutement (par exemple, la recherche de candidats et la planification des entretiens) à l'optimisation des workflows complexes sur diverses applications d'entreprise. Sa nature open-source favorise un écosystème florissant d'agents IA collaboratifs.

DeepCoder-14B : Modèle de raisonnement de code open source rivalisant avec le o3-mini d'OpenAI

2025-04-09
DeepCoder-14B : Modèle de raisonnement de code open source rivalisant avec le o3-mini d'OpenAI

Agentica et Together AI ont publié DeepCoder-14B-Preview, un modèle de raisonnement de code optimisé via un RL distribué à partir de Deepseek-R1-Distilled-Qwen-14B. Atteignant une précision impressionnante de 60,6 % Pass@1 sur LiveCodeBench, il rivalise avec le o3-mini d'OpenAI, avec seulement 14 B de paramètres. Le projet open-source son jeu de données, son code, ses journaux d'entraînement et ses optimisations système, montrant une recette d'entraînement robuste basée sur des données de haute qualité et des améliorations algorithmiques de GRPO. Cette avancée démocratise l'accès aux modèles de génération de code haute performance.

Gemini 2.5 Pro Experimental : La recherche approfondie devient bien plus intelligente

2025-04-09
Gemini 2.5 Pro Experimental : La recherche approfondie devient bien plus intelligente

Les abonnés à Gemini Advanced peuvent désormais accéder à la Recherche approfondie alimentée par Gemini 2.5 Pro Experimental, considéré comme le modèle d'IA le plus performant au monde selon les benchmarks de l'industrie et Chatbot Arena. Cet assistant de recherche personnel à IA améliore considérablement chaque étape du processus de recherche. Lors des tests, les évaluateurs ont préféré les rapports générés par Gemini 2.5 Pro aux rapports des concurrents par une marge supérieure à 2 :1, citant des améliorations en matière de raisonnement analytique, de synthèse d'informations et de génération de rapports perspicaces. Accédez à des rapports détaillés et faciles à lire sur n'importe quel sujet sur le Web, Android et iOS, en économisant des heures de travail. De plus, essayez la nouvelle fonctionnalité Aperçus audio pour écouter en déplacement. En savoir plus et essayez-le maintenant en sélectionnant Gemini 2.5 Pro (expérimental) et en choisissant « Recherche approfondie » dans la barre d'invite.

Cyc : Les 200 millions de dollars d’IA qui n’ont jamais existé

2025-04-08
Cyc : Les 200 millions de dollars d’IA qui n’ont jamais existé

Cet essai détaille l’histoire de 40 ans de Cyc, l’ambitieux projet de Douglas Lenat visant à créer une intelligence artificielle générale (IAG) en échelonnant la logique symbolique. Malgré un investissement de 200 millions de dollars et 2 000 années-personnes de travail, Cyc n’a pas réussi à atteindre la maturité intellectuelle. L’article dévoile son histoire secrète, soulignant l’isolement du projet et le rejet des approches alternatives de l’IA comme des facteurs clés ayant contribué à son échec. La longue et lente disparition de Cyc constitue un réquisitoire puissant contre l’approche logique-symbolique de l’IAG.

Llama 4 de Meta : Deuxième place au classement et un lancement chaotique

2025-04-08
Llama 4 de Meta : Deuxième place au classement et un lancement chaotique

Meta a publié deux nouveaux modèles Llama 4 : Scout et Maverick. Maverick a obtenu la deuxième place sur LMArena, surpassant GPT-4o et Gemini 2.0 Flash. Cependant, Meta a admis que LMArena a testé une version de chat expérimentale spécialement optimisée, et non la version publique. Cela a suscité une controverse, amenant LMArena à mettre à jour ses politiques pour éviter des incidents similaires. Meta a expliqué qu’il expérimentait différentes versions, mais cette mesure a soulevé des questions sur sa stratégie dans la course à l’IA et le calendrier inhabituel du lancement de Llama 4. En fin de compte, l’incident met en évidence les limites des benchmarks de l’IA et les stratégies complexes des grandes entreprises technologiques dans la compétition.

Vidéos d'une Minute à Partir de Storyboards Textuels en Utilisant des Transformateurs avec Entraînement en Temps de Test

2025-04-08

Les modèles Transformer actuels ont du mal à générer des vidéos d'une minute en raison de l'inefficacité des couches d'auto-attention pour les contextes longs. Cet article explore les couches d'entraînement en temps de test (TTT), dont les états cachés sont eux-mêmes des réseaux neuronaux, offrant une plus grande expressivité. L'ajout de couches TTT à un Transformer pré-entraîné permet la génération de vidéos d'une minute à partir de storyboards textuels. Des expériences utilisant un ensemble de données de dessins animés Tom et Jerry montrent que les couches TTT améliorent significativement la cohérence de la vidéo et la narration par rapport aux modèles de base tels que Mamba 2 et Gated DeltaNet, atteignant un avantage de 34 points Elo dans l'évaluation humaine. Bien que des artefacts persistent, probablement en raison des limitations du modèle à 5 milliards de paramètres, ce travail démontre une approche prometteuse évolutive vers des vidéos plus longues et des récits plus complexes.

Génération d'images par IA multimodale : le début d'une révolution visuelle

2025-04-08
Génération d'images par IA multimodale : le début d'une révolution visuelle

Le lancement récent par Google et OpenAI de capacités de génération d'images multimodales marque une révolution dans le domaine de la génération d'images par IA. Contrairement aux méthodes précédentes qui envoyaient des invites textuelles à des outils de génération d'images séparés, les modèles multimodaux contrôlent directement le processus de création d'images, construisant les images jeton par jeton, tout comme les LLM génèrent du texte. Cela permet à l'IA de générer des images beaucoup plus précises et impressionnantes, et d'itérer en fonction des commentaires de l'utilisateur. L'article présente les capacités puissantes des modèles multimodaux à travers divers exemples, tels que la génération d'infographies, la modification de détails d'images et même la création de publicités pour des produits virtuels. Cependant, il souligne également les défis, notamment les préoccupations relatives aux droits d'auteur et à l'éthique, ainsi que les risques potentiels d'utilisation abusive, tels que les deepfakes. En fin de compte, l'auteur estime que l'IA multimodale transformera profondément le paysage de la création visuelle, et nous devons réfléchir attentivement à la manière d'orienter cette transformation pour garantir son développement sain.

Neuroplasticité en temps réel : Donner aux LLMs pré-entraînés un apprentissage en temps réel

2025-04-08
Neuroplasticité en temps réel : Donner aux LLMs pré-entraînés un apprentissage en temps réel

Cette technique expérimentale, appelée « graffiti neuronal », utilise un plugin appelé « couche de pulvérisation » pour injecter des traces de mémoire directement dans la phase finale d’inférence des grands modèles linguistiques pré-entraînés (LLMs) sans réglage fin ni réentraînement. Imitant la neuroplasticité du cerveau, elle modifie subtilement la « pensée » du modèle en modifiant les plongements vectoriels, ce qui influence ses prédictions de jetons génératifs. Grâce à l’interaction, le modèle apprend et évolue progressivement. Sans forcer des sorties de mots spécifiques, il oriente le modèle vers des concepts associés à une interaction répétée. L’objectif est de donner aux modèles d’IA un comportement plus proactif, une personnalité plus concentrée et une curiosité accrue, les aidant finalement à atteindre une forme d’autoconscience au niveau neuronal.

IA

Les habitudes d'écoute de musique d'ambiance diffèrent entre les adultes neurotypiques et ceux dépistés positifs pour le TDAH

2025-04-08

Une enquête en ligne menée auprès de 910 jeunes adultes (17-30 ans) a comparé les habitudes d'écoute de musique d'ambiance (MA) et les effets subjectifs entre les individus neurotypiques et ceux ayant obtenu un dépistage positif pour le TDAH, lors de tâches aux demandes cognitives variées. Le groupe TDAH a montré une préférence significativement plus importante pour la MA dans des situations spécifiques, comme l'étude et le sport, et une préférence plus marquée pour la musique stimulante. Cependant, aucune différence significative n'a été trouvée quant aux effets subjectifs de la MA sur le fonctionnement cognitif et émotionnel entre les groupes. L'étude souligne l'importance d'ajuster l'utilisation de la MA en fonction des besoins d'activation individuels et des ressources cognitives disponibles, offrant un nouveau point de vue sur les interventions musicales pour le TDAH.

Les LLM atteignent un mur : l'échec de Llama 4 et le cycle de l'engouement pour l'IA

2025-04-08
Les LLM atteignent un mur : l'échec de Llama 4 et le cycle de l'engouement pour l'IA

Le lancement de Llama 4 indique que les grands modèles de langage pourraient avoir atteint un plafond de performance. L'investissement massif de Meta dans Llama 4 n'a pas réussi à produire les avancées attendues, avec des rumeurs suggérant une possible manipulation de données pour atteindre les objectifs. Cela reflète les difficultés rencontrées par OpenAI, Google et d'autres entreprises dans leur quête d'une IA de niveau GPT-5. La déception de l'industrie concernant les performances de Llama 4 est généralisée, renforcée par le départ de la vice-présidente de l'IA de Meta, Joelle Pineau. L'article souligne des problèmes tels que les fuites et la contamination des données dans l'industrie de l'IA, accusant des personnalités de premier plan de faire des prédictions excessivement optimistes, ignorant les échecs du monde réel.

Les LLM comprennent-ils les valeurs nulles ? Exploration des représentations internes des modèles de génération de code

2025-04-07

Les grands modèles de langage (LLM) ont montré des progrès remarquables dans la génération de code, mais leur véritable compréhension du code reste une question. Ce travail étudie la compréhension des LLM de la notion de nullité dans le code, en utilisant à la fois une évaluation externe (complétion de code) et une exploration interne (analyse de l'activation du modèle). Les résultats révèlent que les LLM apprennent et appliquent des règles sur les valeurs nulles, les performances variant en fonction de la complexité de la règle et de la taille du modèle. L'étude éclaire également la manière dont les LLM représentent la nullité en interne et comment cette compréhension évolue pendant l'entraînement.

Jeu d'élimination des LLM : raisonnement social, stratégie et tromperie

2025-04-07
Jeu d'élimination des LLM : raisonnement social, stratégie et tromperie

Des chercheurs ont créé un benchmark de « jeu d'élimination » multijoueur pour évaluer les grands modèles de langage (LLM) en matière de raisonnement social, de stratégie et de tromperie. Huit LLM entrent en compétition, participant à des conversations publiques et privées, formant des alliances et votant pour éliminer les adversaires jusqu'à ce qu'il n'en reste plus que deux. Un jury de joueurs éliminés désigne ensuite le vainqueur. L'analyse des journaux de conversation, des schémas de vote et des classements révèle comment les LLM équilibrent les connaissances partagées et les intentions cachées, en forgeant des alliances ou en les trahissant stratégiquement. Le benchmark dépasse les simples dialogues, forçant les modèles à naviguer dans les dynamiques publiques par rapport aux privées, le vote stratégique et la persuasion du jury. GPT-4.5 Preview a été le modèle le plus performant.

Un agent IA résout le défi du diamant dans Minecraft sans aide humaine

2025-04-07
Un agent IA résout le défi du diamant dans Minecraft sans aide humaine

Des chercheurs de Google DeepMind ont développé Dreamer, un système d'IA qui a appris à collecter des diamants de manière autonome dans Minecraft sans aucune instruction humaine préalable. Cela représente une avancée significative dans la capacité de l'IA à généraliser les connaissances. Dreamer utilise l'apprentissage par renforcement et un modèle du monde pour prédire les scénarios futurs, lui permettant de planifier et d'exécuter efficacement la tâche complexe de collecte de diamants sans règles préprogrammées ni démonstrations. La recherche ouvre la voie à la création de robots capables d'apprendre et de s'adapter dans le monde réel.

IA

Le Grand Hype des LLMs : Benchmarks vs. Réalité

2025-04-06
Le Grand Hype des LLMs : Benchmarks vs. Réalité

Une startup utilisant des modèles d'IA pour l'analyse de sécurité de code a constaté des améliorations pratiques limitées malgré l'augmentation des scores de référence depuis juin 2024. L'auteur soutient que les progrès des grands modèles de langage ne se traduisent pas par une utilité économique ou une généralisation, contredisant les affirmations publiques. Cela soulève des inquiétudes quant aux méthodes d'évaluation des modèles d'IA et à l'exagération possible des capacités par les laboratoires d'IA. L'auteur préconise de se concentrer sur les performances des applications réelles plutôt que sur les scores de référence et souligne la nécessité d'une évaluation robuste avant le déploiement de l'IA dans des contextes sociaux.

Foundry : S'attaquer à la crise de fiabilité des agents de navigation

2025-04-06
Foundry : S'attaquer à la crise de fiabilité des agents de navigation

Les agents de navigation actuels des principaux laboratoires d'IA échouent dans plus de 80 % des tâches du monde réel. Foundry construit le premier simulateur robuste, l'environnement d'entraînement RL et la plateforme d'évaluation conçus spécifiquement pour les agents de navigation. En créant des répliques parfaites de sites Web comme DoorDash, Foundry permet des millions de tests sans les complexités du monde réel, identifiant les points de défaillance et accélérant les améliorations. Sa mission est de transformer les projets de recherche instables en solutions d'entreprise fiables. Ils recherchent des ingénieurs full-stack exceptionnels pour rejoindre leur équipe d'experts en ML de Scale AI, afin de relever ce défi d'un marché de l'automatisation de plus de 20 milliards de dollars.

IA

QVQ-Max : un modèle d'IA doté à la fois de vision et d'intelligence

2025-04-06
QVQ-Max : un modèle d'IA doté à la fois de vision et d'intelligence

QVQ-Max est un nouveau modèle de raisonnement visuel qui non seulement « comprend » les images et les vidéos, mais analyse et raisonne également à partir de ces informations pour résoudre divers problèmes. Des problèmes de mathématiques aux questions quotidiennes, du code de programmation à la création artistique, QVQ-Max fait preuve de capacités impressionnantes. Il excelle dans l'observation détaillée, le raisonnement approfondi et l'application flexible dans divers scénarios, tels que l'assistance au travail, l'apprentissage et la vie quotidienne. Le développement futur se concentrera sur l'amélioration de la précision de la reconnaissance, l'amélioration de la gestion des tâches à plusieurs étapes et l'élargissement des méthodes d'interaction pour devenir un véritable agent visuel pratique.

Protocole de contexte de modèle (MCP) : la prochaine grande avancée pour l’intégration des LLM, mais attention

2025-04-06
Protocole de contexte de modèle (MCP) : la prochaine grande avancée pour l’intégration des LLM, mais attention

Le protocole de contexte de modèle (MCP) est en passe de devenir la norme pour l’intégration des grands modèles de langage (LLM) avec les outils et les données, surnommé le « USB-C pour les agents d’IA ». Il permet aux agents de se connecter aux outils via des API standardisées, de maintenir des sessions persistantes, d’exécuter des commandes et de partager le contexte entre les workflows. Cependant, le MCP n’est pas sécurisé par défaut. La connexion d’agents à des serveurs arbitraires sans considération minutieuse peut créer des failles de sécurité, exposant potentiellement l’accès au shell, les secrets ou l’infrastructure via des attaques par canaux latéraux.

SeedLM : Une nouvelle méthode de compression des poids LLM utilisant des générateurs de nombres pseudo-aléatoires

2025-04-06
SeedLM : Une nouvelle méthode de compression des poids LLM utilisant des générateurs de nombres pseudo-aléatoires

Les grands modèles de langage (LLM) sont entravés par des coûts d'exécution élevés, limitant leur déploiement généralisé. Des chercheurs de Meta présentent SeedLM, une nouvelle méthode de compression post-entraînement utilisant des graines d'un générateur de nombres pseudo-aléatoires pour coder et compresser les poids des modèles. Pendant l'inférence, SeedLM utilise un registre à décalage à rétroaction linéaire (LFSR) pour générer efficacement une matrice aléatoire, combinée linéairement avec des coefficients compressés pour reconstruire des blocs de poids. Cela réduit l'accès à la mémoire et exploite les cycles de calcul inactifs, accélérant les tâches liées à la mémoire en échangeant du calcul contre moins d'accès à la mémoire. Contrairement aux méthodes de pointe qui nécessitent des données d'étalonnage, SeedLM est sans données et se généralise bien à diverses tâches. Des expériences sur le modèle Llama 3 70B, particulièrement difficile, montrent une précision zéro-shot à 4 et 3 bits de compression égale ou supérieure aux méthodes de pointe, tout en maintenant des performances comparables aux références FP16. Des tests FPGA montrent que SeedLM à 4 bits approche une accélération de 4x par rapport à une référence FP16 Llama 2/3 lorsque la taille du modèle augmente.

IA

TripoSG : Synthèse de formes 3D haute fidélité à l'aide de modèles de flux rectifiés à grande échelle

2025-04-06
TripoSG : Synthèse de formes 3D haute fidélité à l'aide de modèles de flux rectifiés à grande échelle

TripoSG est un modèle de base de pointe pour la génération d'images en 3D haute fidélité. En utilisant des transformateurs de flux rectifiés à grande échelle, un entraînement supervisé hybride et un ensemble de données de haute qualité, il obtient des résultats de pointe. TripoSG génère des maillages avec des caractéristiques nettes, des détails fins et des structures complexes, reflétant avec précision la sémantique de l'image d'entrée. Il possède de fortes capacités de généralisation, gérant divers styles d'entrée. Un modèle de 1,5 milliard de paramètres, ainsi que le code d'inférence et une démonstration interactive, sont désormais disponibles.

Signature de modèle : sécurisation de l’intégrité des modèles ML

2025-04-05
Signature de modèle : sécurisation de l’intégrité des modèles ML

Avec la croissance fulgurante des applications d’apprentissage automatique, la sécurité des modèles est devenue une préoccupation essentielle. Ce projet vise à sécuriser l’intégrité et la provenance des modèles d’apprentissage automatique grâce à la signature des modèles. Il utilise des outils comme Sigstore pour générer des signatures de modèles et fournit des interfaces CLI et API, prenant en charge différentes méthodes de signature (Sigstore, clés publiques et certificats). Les utilisateurs peuvent vérifier indépendamment l’intégrité de leurs modèles, empêchant ainsi toute falsification après l’entraînement. Le projet s’intègre également à SLSA (Supply chain Levels for Software Artifacts) pour renforcer encore la sécurité de la chaîne d’approvisionnement des modèles d’apprentissage automatique.

Meta lance les modèles d'IA multimodaux Llama 4 : performants et accessibles

2025-04-05
Meta lance les modèles d'IA multimodaux Llama 4 : performants et accessibles

Meta a dévoilé sa famille de modèles d'IA Llama 4, comprenant Llama 4 Scout et Llama 4 Maverick, pour répondre aux différents besoins des développeurs. Llama 4 Scout, un modèle multimodal de pointe, possède 17 milliards de paramètres actifs et 109 milliards de paramètres au total, offrant des performances de pointe. Llama 4 Maverick, avec 17 milliards de paramètres actifs et 400 milliards de paramètres au total, surpasse Llama 3.3 70B à moindre coût, excellant dans la compréhension d'images et de texte dans 12 langues. Idéal pour les assistants généraux et les applications de chat, il est optimisé pour des réponses de haute qualité et un ton subtil.

Google publie une bibliothèque stable de signature de modèles pour sécuriser la chaîne d'approvisionnement de l'IA

2025-04-05
Google publie une bibliothèque stable de signature de modèles pour sécuriser la chaîne d'approvisionnement de l'IA

L'essor des grands modèles de langage (LLM) a mis en lumière l'importance de la sécurité de la chaîne d'approvisionnement de l'IA. La falsification des modèles, l'empoisonnement des données et autres menaces sont des préoccupations croissantes. Pour y remédier, Google, en partenariat avec NVIDIA et HiddenLayer, et avec le soutien de l'Open Source Security Foundation, a publié la première version stable de sa bibliothèque de signature de modèles. Cette bibliothèque utilise des signatures numériques, telles que celles de Sigstore, pour permettre aux utilisateurs de vérifier que le modèle utilisé par une application est identique à celui créé par les développeurs. Cela garantit l'intégrité et la provenance du modèle, le protégeant contre les manipulations malveillantes tout au long de son cycle de vie, de la formation au déploiement. Les projets futurs incluent l'extension de cette technologie aux ensembles de données et autres artefacts ML, afin de construire un écosystème de confiance plus robuste pour l'IA.

L'IA dans les soins de santé : le goulot d'étranglement informatique

2025-04-05
L'IA dans les soins de santé : le goulot d'étranglement informatique

Un chercheur souligne l'imprécision des outils cliniques actuels utilisés pour la prédiction du risque de cancer. L'IA a le potentiel d'exploiter des données massives de patients pour des soins personnalisés, permettant une détection précoce du cancer, des diagnostics améliorés et des protocoles de traitement optimisés. Cependant, l'énorme volume de données de santé surcharge les puces informatiques traditionnelles, faisant du pouvoir de calcul un goulot d'étranglement pour réaliser le potentiel total de l'IA dans les soins de santé. Alors que les chercheurs optimisent les algorithmes, la technologie des puces à base de silicium approche de ses limites de performance, nécessitant une nouvelle approche de la technologie des puces pour que l'IA atteigne son plein potentiel.

LeCun : les grands modèles de langage seront obsolètes dans cinq ans

2025-04-05
LeCun : les grands modèles de langage seront obsolètes dans cinq ans

Yann LeCun, le scientifique en chef de l'IA de Meta, prédit que les grands modèles de langage (LLM) seront largement obsolètes dans cinq ans. Il soutient que les LLM actuels manquent de compréhension du monde physique, fonctionnant comme des outils spécialisés dans un espace discret et simple (le langage). LeCun et son équipe développent une approche alternative appelée JEPA, qui vise à créer des représentations du monde physique à partir d'entrées visuelles, permettant de véritables capacités de raisonnement et de planification dépassant les LLM. Il envisage que l'IA transformera la société en augmentant l'intelligence humaine, et non en la remplaçant, et réfute les affirmations selon lesquelles l'IA représente un risque existentiel.

IA
1 2 24 25 26 28 30 31 32 40 41