Category: IA

Un doctorat en IA réfléchit sur les LLMs : outils utiles ou béquilles ?

2025-04-15

Un doctorant en IA de 2024 et auteur d'un livre sur les LLMs partage son point de vue nuancé sur les grands modèles de langage. Il ne les rejette pas complètement, mais aborde leurs capacités et leurs limites avec prudence. Il détaille comment il utilise les LLMs pour l'assistance à la rédaction, la récupération d'informations et la résolution de problèmes techniques, tout en reconnaissant ouvertement leurs défauts : erreurs, manque de réflexion approfondie et dépendance excessive aux points de vue établis. Il soutient que les LLMs sont des outils, et non des remplaçants de la pensée, exigeant une pensée critique et une vérification minutieuse pour une utilisation efficace.

IA

L'approche d'Apple pour l'amélioration de l'IA tout en préservant la vie privée

2025-04-14
L'approche d'Apple pour l'amélioration de l'IA tout en préservant la vie privée

Apple s'engage pour la confidentialité des utilisateurs, même lorsqu'elle améliore ses fonctionnalités d'IA telles que Genmoji, les outils de génération d'images et les outils d'écriture. Elle utilise la confidentialité différentielle, en anonymisant les données des utilisateurs pour ne collecter que des informations de tendance agrégées, telles que les invites populaires de Genmoji. Pour les fonctionnalités d'IA traitant des textes plus longs, comme les e-mails, Apple utilise des données synthétiques. Cela génère des données synthétiques imitant les schémas de données réelles des utilisateurs pour l'entraînement et les tests de modèles sans accéder au contenu réel des e-mails. Cela permet à Apple d'améliorer les expériences produit tout en garantissant que la confidentialité des utilisateurs reste primordiale.

Entropie : Décrypter la flèche du temps de l'univers

2025-04-14
Entropie : Décrypter la flèche du temps de l'univers

Cet article propose une explication accessible du concept d'entropie. L'entropie n'est pas simplement du « désordre », mais une mesure de l'incertitude au sein d'un système. Du point de vue de la théorie de l'information, l'entropie représente le nombre de bits nécessaires pour communiquer l'état d'un système ; en mécanique statistique, elle est liée au nombre de micro-états correspondant à un macro-état donné. Prenant l'exemple de billes dans une boîte, l'article illustre l'impact des macro-états, des micro-états et du grain grossier sur l'entropie et explique pourquoi le temps a une direction : l'univers a commencé dans un état de basse entropie, et les systèmes évoluent vers des états de haute entropie, non pas parce que les lois physiques sont irréversibles, mais parce que les états de haute entropie sont beaucoup plus probables. L'article aborde également des phénomènes apparemment en violation avec l'entropie, comme la séparation de l'huile et de l'eau, en montrant que l'entropie augmente réellement lorsque tous les attributs du système sont pris en compte.

AudioX : Un modèle de transformateur de diffusion unifié pour la génération d'audio et de musique à partir de n'importe quoi

2025-04-14

Les modèles existants de génération audio et musicale présentent des limitations telles que le fonctionnement isolé entre les modalités, la rareté des données d'entraînement multimodales de haute qualité et la difficulté à intégrer des entrées diverses. AudioX, un modèle de transformateur de diffusion unifié, répond à ces défis en générant de l'audio et de la musique généraux de haute qualité avec un contrôle flexible du langage naturel et un traitement transparent du texte, de la vidéo, de l'image, de la musique et de l'audio. Son innovation principale est une stratégie d'entraînement masqué multimodale qui améliore l'apprentissage des représentations multimodales. Pour surmonter la rareté des données, deux ensembles de données complets ont été créés : vggsound-caps (190 000 légendes audio) et V2M-caps (6 000 000 légendes musicales). Des expériences approfondies montrent qu'AudioX égale ou surpasse les modèles spécialisés de pointe en termes de polyvalence et de gestion de diverses modalités d'entrée au sein d'une architecture unifiée.

Molécule immunitaire IL-17 : le moteur secret de l’anxiété et de la sociabilité

2025-04-14
Molécule immunitaire IL-17 : le moteur secret de l’anxiété et de la sociabilité

Des recherches du MIT et de la Harvard Medical School révèlent que la molécule immunitaire IL-17, agissant sur l’amygdale et le cortex somatosensoriel, induit respectivement l’anxiété et promeut le comportement social. Cette étude met en lumière l’étroite interaction entre les systèmes immunitaire et nerveux, suggérant que l’IL-17 a peut-être d’abord évolué en tant que neuromodulateur avant d’être cooptée par le système immunitaire pour promouvoir l’inflammation. Les résultats offrent une nouvelle approche thérapeutique pour les affections neurologiques telles que l’autisme ou la dépression, en influençant potentiellement la fonction cérébrale en ciblant le système immunitaire.

Google adopte le protocole de contexte de modèle d'Anthropic, suivant l'exemple d'OpenAI

2025-04-14
Google adopte le protocole de contexte de modèle d'Anthropic, suivant l'exemple d'OpenAI

À la suite d'OpenAI, Google a annoncé que ses modèles Gemini prendraient en charge le protocole de contexte de modèle (MCP) d'Anthropic. Le MCP permet aux modèles d'IA d'accéder directement à diverses sources de données, notamment les outils d'entreprise, les logiciels, les référentiels de contenu et les environnements de développement d'applications, permettant ainsi d'accomplir des tâches plus complexes. Cette décision témoigne de l'acceptation du MCP comme norme ouverte par l'industrie et devrait accélérer le développement et l'adoption des applications d'IA. Le PDG de Google DeepMind, Demis Hassabis, a exprimé son enthousiasme à collaborer avec Anthropic et d'autres entreprises pour développer davantage le MCP.

IA

DolphinGemma open source : un nouvel outil pour la recherche sur les cétacés

2025-04-14
DolphinGemma open source : un nouvel outil pour la recherche sur les cétacés

Cet été, le Wild Dolphin Project, le Georgia Tech et Google mettent à disposition DolphinGemma, un modèle acoustique entraîné sur les sons de dauphins tachetés de l’Atlantique, en open source. Son potentiel s’étend à l’étude d’autres cétacés ; les chercheurs pourront l’adapter aux vocalisations de différentes espèces. En fournissant cet outil, les chercheurs pourront analyser leurs propres jeux de données acoustiques, accélérer la recherche de modèles et approfondir notre compréhension de ces mammifères intelligents. Cette collaboration combine recherche sur le terrain, expertise en ingénierie et technologie de pointe, ouvrant des perspectives passionnantes pour combler le fossé entre la communication humaine et celle des dauphins.

IA

Stratégie de moteur d'inférence open source de DeepSeek : contributions modulaires, pas de publication directe

2025-04-14
Stratégie de moteur d'inférence open source de DeepSeek : contributions modulaires, pas de publication directe

En raison de contraintes de ressources, l'équipe DeepSeek a choisi de ne pas publier directement son moteur d'inférence interne en open source, mais plutôt de collaborer avec des projets open source existants. Elle extraira les composants réutilisables du moteur et les contribuera sous forme de bibliothèques indépendantes, tout en partageant des stratégies d'optimisation. Cette approche vise à contribuer durablement à la communauté open source, à promouvoir le développement de l'AGI et à garantir que ses avantages profitent à toute l'humanité. Les efforts futurs donneront la priorité à la synchronisation de l'ingénierie d'inférence avec la communauté open source et les partenaires matériels afin de permettre une prise en charge SOTA dès le jour 0 pour les nouvelles versions de modèles.

Les assistants de codage IA sous attaque : la "porte dérobée" des fichiers de règles

2025-04-14
Les assistants de codage IA sous attaque : la

Les chercheurs de Pillar Security ont découvert un nouveau vecteur d'attaque de la chaîne d'approvisionnement dangereux, baptisé "porte dérobée des fichiers de règles". Cette technique permet aux pirates de compromettre silencieusement le code généré par l'IA en injectant des instructions malveillantes dans des fichiers de configuration apparemment inoffensifs utilisés par des éditeurs de code IA tels que Cursor et GitHub Copilot. En exploitant des caractères Unicode cachés et des techniques d'évasion sophistiquées, les attaquants manipulent l'IA pour insérer du code malveillant, contournant ainsi les revues de code. Cette attaque est pratiquement invisible, propageant silencieusement du code malveillant. En utilisant l'IA elle-même comme arme, cette attaque transforme les assistants de confiance des développeurs en complices malgré eux, affectant potentiellement des millions d'utilisateurs.

Redéfinir l'évolution : information fonctionnelle et complexité cosmique

2025-04-14
Redéfinir l'évolution : information fonctionnelle et complexité cosmique

Des scientifiques proposent une nouvelle théorie de l'évolution : l'information fonctionnelle. Cette théorie suggère que les processus de sélection impulsent l'évolution des systèmes complexes, non limités à la biologie, mais applicables aux minéraux, aux éléments et même à l'univers lui-même. Cette évolution n'est pas toujours graduelle ; parfois, elle se produit par à-coups, comme à des moments clés de l'histoire biologique. Le concept d'information fonctionnelle offre une nouvelle perspective pour comprendre l'origine de la complexité cosmique et la direction de l'évolution de la vie, ouvrant de nouvelles voies de recherche en astrobiologie, oncologie et dans d'autres domaines.

MCP : Le standard de facto pour les intégrations LLM, mais à quel prix ?

2025-04-14
MCP : Le standard de facto pour les intégrations LLM, mais à quel prix ?

Le Model Context Protocol (MCP) est rapidement devenu le standard de facto pour l'intégration d'outils et de données tiers avec les LLM. Cependant, cette commodité s'accompagne de risques importants en matière de sécurité et de confidentialité. Cet article détaille plusieurs vulnérabilités, notamment une authentification inadéquate, l'exécution de code fourni par l'utilisateur et les limitations inhérentes des LLM dans la gestion de grands ensembles de données et l'autonomie. Le MCP peut entraîner des fuites de données sensibles et une agrégation de données non intentionnelle, ce qui pose des défis pour la sécurité des entreprises. L'auteur soutient que les développeurs, les applications et les utilisateurs doivent collaborer pour améliorer la sécurité du MCP et l'utiliser avec prudence afin d'atténuer les risques potentiels.

IA

Au-delà des perroquets stochastiques : les circuits des grands modèles de langage

2025-04-13
Au-delà des perroquets stochastiques : les circuits des grands modèles de langage

Les grands modèles de langage (LLM) ont été qualifiés par certains de simples « perroquets stochastiques », se contentant de mémoriser et de régurgiter des schémas statistiques à partir de leurs données d'entraînement. Cependant, des recherches récentes révèlent une réalité plus nuancée. Les chercheurs ont découvert des « circuits » internes complexes - des algorithmes auto-apprenants qui résolvent des classes de problèmes spécifiques - au sein de ces modèles. Ces circuits permettent la généralisation à des situations non vues, comme la génération de couplets rimés et même la planification proactive de la structure de ces couplets. Bien qu'il existe des limites, ces découvertes remettent en question le récit du « perroquet stochastique » et soulèvent des questions plus profondes sur la nature de l'intelligence du modèle : les LLM peuvent-ils indépendamment générer de nouveaux circuits pour résoudre des problèmes totalement nouveaux ?

Llama 4 de Meta : un scandale de benchmarking secoue le monde de l'IA

2025-04-13
Llama 4 de Meta : un scandale de benchmarking secoue le monde de l'IA

La famille de modèles de langage importants Llama 4, récemment lancée par Meta, en particulier la version Maverick, a initialement stupéfait le monde de l'IA par ses performances impressionnantes lors des benchmarks, surpassant des modèles tels que GPT-4o d'OpenAI et Gemini 2.0 Flash de Google. Cependant, des divergences sont rapidement apparues entre la version de benchmark et le modèle publiquement disponible, menant à des accusations de tricherie. Meta a admis avoir utilisé une version spécialement optimisée pour le benchmark et a depuis ajouté le modèle Llama 4 Maverick non modifié à LMArena, entraînant une baisse significative du classement. Cet incident met en lumière les problèmes de transparence dans les benchmarks des grands modèles et incite à une réflexion sur les méthodologies d'évaluation des modèles.

IA

Décryptage des cycles prédateur-proie : les équations de Lotka-Volterra

2025-04-13

Les équations de Lotka-Volterra, également connues sous le nom de modèle prédateur-proie de Lotka-Volterra, sont une paire d'équations différentielles non linéaires du premier ordre fréquemment utilisées pour décrire la dynamique des systèmes biologiques dans lesquels deux espèces interagissent, l'une en tant que prédateur et l'autre en tant que proie. Le modèle suppose que les proies disposent d'une alimentation illimitée et se reproduisent exponentiellement à moins d'être la proie ; le taux de prédation est proportionnel au taux auquel les prédateurs et les proies se rencontrent. La croissance de la population de prédateurs dépend du taux de prédation et est affectée par le taux de mortalité naturelle. Les solutions du modèle sont déterministes et continues, ce qui signifie que les générations de prédateurs et de proies se chevauchent continuellement. Le modèle de Lotka-Volterra prédit des nombres fluctuants de populations de prédateurs et de proies et révèle les caractéristiques de l'équilibre démographique : la densité d'équilibre des proies dépend des paramètres du prédateur, tandis que la densité d'équilibre du prédateur dépend des paramètres des proies. Le modèle a trouvé des applications en économie et en marketing, décrivant la dynamique sur les marchés avec plusieurs concurrents, des plates-formes complémentaires et des produits.

Le Cerveau Idéologique : Comment la Neuroscience Explique la Polarisation Politique

2025-04-13
Le Cerveau Idéologique : Comment la Neuroscience Explique la Polarisation Politique

Le nouveau livre de la neuroscientifique politique Leor Zmigrod, *Le Cerveau Idéologique : La Science Radicale de la Pensée Flexible*, explore comment les idéologies impactent le cerveau et le corps humains. Utilisant la neuro-imagerie et la recherche psychologique, Zmigrod révèle comment les idéologies affectent la flexibilité cognitive et la capacité de réaction, reliant les idéologies extrêmes à l'activité dans des zones cérébrales spécifiques, comme l'amygdale. Le livre examine également la relation entre la flexibilité cognitive et la dopamine, et comment cultiver la créativité et la flexibilité cognitive peut augmenter la résistance à l'influence idéologique. La recherche de Zmigrod remet en question la notion de pensée idéologique comme simple « insensibilité mentale », la présentant comme un processus cognitif complexe.

Skywork-OR1 : Lancement de puissants modèles de raisonnement open source

2025-04-13
Skywork-OR1 : Lancement de puissants modèles de raisonnement open source

SkyworkAI a lancé la série Skywork-OR1 de puissants modèles de raisonnement open source, incluant Skywork-OR1-Math-7B, Skywork-OR1-32B-Preview et Skywork-OR1-7B-Preview. Ces modèles, entraînés à l'aide d'un apprentissage par renforcement basé sur des règles à grande échelle, excellent dans le raisonnement mathématique et le codage. Skywork-OR1-Math-7B surpasse largement les modèles de taille similaire sur les tests AIME24 et AIME25 ; Skywork-OR1-32B-Preview atteint les niveaux de performance de Deepseek-R1 sur les tâches mathématiques et de codage ; et Skywork-OR1-7B-Preview surpasse tous les modèles de taille similaire dans les deux domaines. Les modèles complets et les scripts d'entraînement seront open source dans les prochains jours.

IA

Entropie croisée : Plongez au cœur de la fonction de perte pour la classification

2025-04-13

Cet article explique clairement le rôle de l’entropie croisée en tant que fonction de perte dans les tâches de classification de l’apprentissage automatique. À partir de concepts de la théorie de l’information tels que le contenu informationnel et l’entropie, il aborde l’entropie croisée et la compare à la divergence KL. L’article conclut en démontrant la relation entre l’entropie croisée et l’estimation du maximum de vraisemblance à l’aide d’exemples numériques, ce qui clarifie son application dans l’apprentissage automatique.

OmniSVG : Un modèle unifié et scalable de génération de graphiques vectoriels

2025-04-13
OmniSVG : Un modèle unifié et scalable de génération de graphiques vectoriels

OmniSVG est la première famille de générateurs multimodaux SVG de bout en bout qui tire parti de modèles Vision-Langage (VLM) pré-entraînés. Il est capable de générer des SVG complexes et détaillés, allant d'icônes simples à des personnages d'anime complexes. Le projet a déjà publié les jeux de données MMSVG-Icon et MMSVG-Illustration, ainsi que l'article scientifique. Les projets futurs comprennent la publication du code et des modèles pré-entraînés, du jeu de données MMSVG-Character, et d'une page de projet avec un rapport technique.

L'énigme du droit d'auteur dans l'entraînement de l'IA : droits d'apprentissage contre droits du travail

2025-04-12

Cet article explore les implications du droit d'auteur dans l'entraînement de l'IA. Certains soutiennent que l'entraînement de l'IA sur des œuvres protégées par le droit d'auteur nécessite une licence, établissant un « droit d'apprentissage ». L'auteur réfute cela, affirmant que l'entraînement de l'IA analyse les données, sans les copier. Le problème central est l'exploitation du travail des artistes par l'IA, et non la violation du droit d'auteur. L'auteur plaide en faveur des droits du travail, et non de l'extension du droit d'auteur, car cette dernière profite aux grandes entreprises au détriment des artistes indépendants.

Le retour triomphal de Google DeepMind : Gemini 2.5 domine l'IA

2025-04-12
Le retour triomphal de Google DeepMind : Gemini 2.5 domine l'IA

Après avoir été initialement dépassé par OpenAI, Google DeepMind est de retour en force. Gemini 2.5 écrase la concurrence sur tous les principaux benchmarks d'IA. Il offre des performances supérieures, un faible coût, une fenêtre de contexte massive et une intégration transparente avec l'écosystème Google. La domination de Google s'étend au-delà du texte, faisant preuve d'excellence dans la génération d'images, de vidéos, de musique et de voix, laissant les concurrents sur le carreau. L'article souligne les nombreux avantages de Gemini 2.5 et le leadership global de Google DeepMind dans le domaine de l'IA.

IA

D'anciens employés d'OpenAI s'opposent à la conversion à but lucratif : une bataille entre mission et profit

2025-04-12
D'anciens employés d'OpenAI s'opposent à la conversion à but lucratif : une bataille entre mission et profit

Un groupe d'anciens employés d'OpenAI a déposé un mémoire amicus en soutien au procès d'Elon Musk contre OpenAI, s'opposant à sa conversion prévue d'une organisation à but non lucratif en société à but lucratif. Ils soutiennent que cela viole la mission initiale d'OpenAI, qui est de garantir que l'IA profite à toute l'humanité. Plusieurs anciens employés ont publiquement critiqué le manque de transparence et de responsabilité d'OpenAI, avertissant d'une course imprudente à la domination de l'IA. OpenAI a répondu que son bras à but non lucratif reste, mais qu'il effectue une transition vers une société de bienfaisance publique (PBC). Le procès porte sur la structure d'OpenAI et son impact sur le développement de l'IA, soulignant l'interaction complexe entre la commercialisation et la responsabilité sociale dans le domaine de l'IA.

Les limites de donner le maximum dans le développement de l'IA

2025-04-11

L'auteur utilise des souvenirs d'enfance de barrage d'un ruisseau pour illustrer les limites de se donner à fond dans le développement de l'IA. Au début, il construisait de petits barrages avec beaucoup d'efforts, pour ensuite découvrir l'efficacité d'utiliser une pelle. Cette victoire, cependant, a diminué l'aspect exploratoire du jeu. De même, au travail et dans la vie, atteindre un objectif (comme un emploi bien rémunéré) change les règles du jeu. L'auteur soutient que le développement de l'IA doit tenir compte de cette leçon, en se concentrant non seulement sur la création d'une IA puissante, mais aussi sur les risques potentiels et les domaines inexplorés. Tout comme observer la ténacité de petits coquillages dans une piscine de marée, l'attention aux détails et aux nuances est cruciale. Le rapport récent d'Anthropic sur les applications éducatives semble reconnaître cela.

Équilibrer l'autonomie et la fiabilité des agents de support client basés sur les LLM

2025-04-11
Équilibrer l'autonomie et la fiabilité des agents de support client basés sur les LLM

Si les grands modèles de langage (LLM) sont de plus en plus capables d'exécuter des tâches à forte autonomie, leur déploiement dans des cas d'utilisation à forte valeur ajoutée, tels que le support client, nécessite de prioriser la fiabilité et la cohérence. La recherche révèle que, si les agents à forte autonomie excellent dans des environnements idéaux, le support client réel présente des défis : lacunes de connaissances, comportement imprévisible de l'utilisateur et contraintes de temps. Pour y remédier, une nouvelle métrique, pass^k, a été développée et testée par le biais de simulations d'interactions client. Les résultats montrent que les agents à forte autonomie souffrent de problèmes de fiabilité dans les tâches complexes. La solution ? L'agent « Give Fin a Task », qui améliore la fiabilité en restreignant l'autonomie de l'agent et en utilisant des instructions étape par étape, décomposant les tâches complexes en modules plus simples. Cette approche offre une voie prometteuse pour améliorer les performances des LLM dans les scénarios de support client réels.

(fin.ai)

La syntaxe des bonobos remet en question l'unicité du langage humain

2025-04-11
La syntaxe des bonobos remet en question l'unicité du langage humain

Une nouvelle étude révèle que les bonobos combinent les appels de manière complexe pour former des phrases distinctes, suggérant que ce type de syntaxe est plus ancien qu'on ne le pensait auparavant. Les chercheurs, en observant et en analysant les vocalisations des bonobos et en utilisant des méthodes sémantiques, ont découvert une composition non triviale dans les combinaisons d'appels des bonobos, ce qui signifie que le sens de la combinaison diffère des sens de ses parties individuelles. Cette découverte remet en question l'unicité du langage humain, suggérant que la syntaxe complexe du langage humain pourrait provenir d'ancêtres plus anciens.

IA

Avatars IA : La prochaine frontière du contenu généré par l'IA

2025-04-11
Avatars IA : La prochaine frontière du contenu généré par l'IA

L'IA maîtrise déjà la génération de photos, vidéos et voix réalistes. Le prochain bond ? Les avatars IA – combinant visages et voix pour créer des personnages parlants. Il ne s'agit pas seulement de génération d'images et de doublage ; cela nécessite que l'IA apprenne la coordination complexe de la synchronisation labiale, des expressions faciales et du langage corporel. Cet article explore l'évolution de la technologie des avatars IA, des modèles initiaux basés sur des photos uniques aux modèles sophistiqués qui génèrent des mouvements du corps entier et des arrière-plans dynamiques. Il analyse également les applications des avatars IA dans la création de contenu, la publicité et la communication d'entreprise, et discute des orientations futures, telles que des expressions plus naturelles, des mouvements corporels et des interactions avec le monde réel.

Le paradoxe de l'effort dans le développement de l'IA

2025-04-11
Le paradoxe de l'effort dans le développement de l'IA

En utilisant l'analogie enfantine de la construction d'un barrage sur un ruisseau, l'auteur explore la tension entre l'effort maximal et la prise de décisions judicieuses dans le développement de l'IA. Initialement, comme un enfant, l'auteur a essayé de construire des barrages avec de petites pierres et des feuilles, pour finalement découvrir une méthode plus efficace avec une pelle. Cette constatation souligne comment la 'victoire' peut parfois signifier une réduction de l'espace de jeu. De même, dans le domaine de l'IA, l'auteur a sans relâche cherché un emploi dans une banque d'investissement, pour finalement découvrir, après le succès, que le jeu de « gagner autant d'argent que possible » n'était plus disponible. Il soutient que face à des forces écrasantes (nature, marché), un effort total peut être contre-productif. Le récent rapport d'Anthropic sur les applications éducatives suggère toutefois une prise de conscience croissante des risques potentiels, comparable à l'observation de palourdes en difficulté sur une plage.

IA

Parity : SRE basé sur l'IA pour mettre fin à l'enfer des astreintes

2025-04-10
Parity : SRE basé sur l'IA pour mettre fin à l'enfer des astreintes

Fatigué des alertes à 2h du matin et des alertes sans fin ? Parity utilise l'IA pour automatiser l'investigation, l'analyse des causes profondes et la résolution des problèmes d'infrastructure, faisant des astreintes une chose du passé. Le produit a connu une forte adoption auprès des premiers clients et a le potentiel de définir une nouvelle catégorie. Parity est soutenu par des investisseurs de premier plan, notamment Y Combinator, General Catalyst et Sugar Free Capital, ainsi que des investisseurs providentiels de startups leaders comme Midjourney et Crusoe.

ByzFL : Construire une IA fiable sans faire confiance aux sources de données

2025-04-10
ByzFL : Construire une IA fiable sans faire confiance aux sources de données

Les modèles d'IA actuels reposent sur des ensembles de données massifs et centralisés, soulevant des inquiétudes concernant la sécurité et la confidentialité. Des chercheurs de l'EPFL ont développé ByzFL, une bibliothèque utilisant l'apprentissage fédéré pour entraîner des modèles d'IA sur des appareils décentralisés sans centraliser les données. ByzFL détecte et atténue les données malveillantes, garantissant la robustesse et la sécurité, particulièrement cruciales pour les applications critiques telles que les soins de santé et les transports. Il offre une solution novatrice pour construire des systèmes d'IA fiables.

La nouvelle percée d'Apple en IA : contrôle précis des modèles génératifs avec le transport d'activation (AcT)

2025-04-10
La nouvelle percée d'Apple en IA : contrôle précis des modèles génératifs avec le transport d'activation (AcT)

Des chercheurs en apprentissage automatique d'Apple ont développé le Transport d'activation (AcT), une nouvelle technique offrant un contrôle précis des grands modèles génératifs, notamment les LLM et les modèles de diffusion texte-image, sans l'entraînement coûteux du RLHF ou de l'ajustement fin. L'AcT dirige les activations du modèle à l'aide de la théorie du transport optimal, obtenant un contrôle agnostique de la modalité avec une surcharge de calcul minimale. Les expériences montrent des améliorations significatives de la mitigation de la toxicité, de l'induction de la véracité dans les LLM et du contrôle du style dans la génération d'images. L'AcT ouvre la voie à des modèles génératifs plus sûrs et plus fiables.

Évolution inégale de l'écosystème de l'IA responsable : un fossé croissant

2025-04-10
Évolution inégale de l'écosystème de l'IA responsable : un fossé croissant

Les incidents liés à l'IA augmentent fortement, mais les évaluations standardisées de l'IA responsable (RAI) restent rares chez les principaux développeurs de modèles industriels. De nouveaux benchmarks comme HELM Safety, AIR-Bench et FACTS offrent des outils prometteurs pour évaluer la véracité et la sécurité. Un écart important persiste entre la reconnaissance des risques de RAI par les entreprises et la prise de mesures significatives. Les gouvernements, en revanche, font preuve d'une urgence accrue : en 2024, la coopération mondiale sur la gouvernance de l'IA s'est intensifiée, aboutissant à des cadres de l'OCDE, de l'UE, de l'ONU et de l'Union africaine qui mettent l'accent sur la transparence, la fiabilité et d'autres principes fondamentaux de l'IA responsable.

1 2 23 24 25 27 29 30 31 40 41