Category: IA

DeepSeek-R1 : L'essor de l'IA en Chine et la victoire de l'open source

2025-02-02
DeepSeek-R1 : L'essor de l'IA en Chine et la victoire de l'open source

La société chinoise DeepSeek a publié DeepSeek-R1, un grand modèle linguistique comparable aux modèles d'OpenAI, sous une licence MIT à poids ouvert. Cela a déclenché une vague de ventes sur le marché boursier des sociétés technologiques américaines, soulignant plusieurs tendances importantes : la Chine rattrape rapidement son retard sur les États-Unis dans le domaine de l'IA générative ; les modèles à poids ouverts rendent la couche des modèles fondamentaux plus abordable, créant des opportunités pour les développeurs d'applications ; la mise à l'échelle n'est pas la seule voie de progrès de l'IA, les innovations algorithmiques réduisant rapidement les coûts de formation. DeepSeek-R1 marque un tournant dans le paysage de l'IA, offrant de nouvelles opportunités pour le développement d'applications d'IA.

Limites des LLMs : L'énigme d'Einstein révèle les limites de l'IA basée sur les transformateurs

2025-02-02
Limites des LLMs : L'énigme d'Einstein révèle les limites de l'IA basée sur les transformateurs

Des chercheurs ont découvert des limitations fondamentales dans la capacité des modèles linguistiques de grande taille (LLM) actuels basés sur les transformateurs à résoudre des tâches de raisonnement compositionnel. Des expériences impliquant l'énigme logique d'Einstein et la multiplication à plusieurs chiffres ont révélé des lacunes importantes, même après un réglage fin étendu. Ces résultats remettent en question l'adéquation de l'architecture des transformateurs pour l'apprentissage universel et incitent à des recherches sur des approches alternatives, telles que des données d'entraînement améliorées et des invites de raisonnement en chaîne, pour améliorer les capacités de raisonnement des LLM.

AMA OpenAI : Reconnaître le retard, adopter l'open source ?

2025-02-01
AMA OpenAI : Reconnaître le retard, adopter l'open source ?

Lors d'un AMA complet sur Reddit, Sam Altman, PDG d'OpenAI, a admis que l'avance d'OpenAI en IA diminuait, en partie à cause de concurrents comme DeepSeek. Il a laissé entendre un virage vers une stratégie plus open source, en publiant potentiellement d'anciens modèles. OpenAI navigue également entre les pressions de Washington, un tour de financement massif et la nécessité de construire une infrastructure de data centers importante. Pour concurrencer, l'entreprise prévoit d'améliorer la transparence du modèle en révélant le processus de raisonnement derrière ses résultats. Altman s'est montré optimiste quant au potentiel d'un progrès rapide de l'IA, mais a reconnu le risque de mauvaise utilisation, notamment dans le développement d'armes.

Guide de construction d'une configuration d'inférence IA Deepseek sur bare-metal

2025-02-01

Ce guide détaille la construction d'un environnement d'inférence IA Deepseek sur bare-metal. Utilisant un système AMD EPYC Rome avec 512 Go de RAM, il atteint 4,25 à 3,5 TPS. Le guide couvre la sélection du matériel, l'installation du système d'exploitation (Ubuntu 24.04), la configuration d'Ollama et d'OpenWebUI, les paramètres du BIOS et les instructions en ligne de commande. Bien que complexe, il est gratifiant pour les passionnés de technologie.

Codec audio parcimonieux et interprétable : vers une représentation audio plus intuitive

2025-02-01

Cet article présente un prototype de codeur audio visant à coder l’audio sous forme d’un ensemble parcimonieux d’événements et de leurs instants d’occurrence. Il s’appuie sur des hypothèses rudimentaires basées sur la physique pour modéliser l’attaque et la résonance physique de l’instrument et de la pièce, dans l’espoir d’obtenir une représentation parcimonieuse, facile à interpréter. Le modèle fonctionne en éliminant itérativement l’énergie du spectrogramme d’entrée, produisant des vecteurs d’événements et des vecteurs one-hot représentant l’instant d’occurrence. Le décodeur utilise ces vecteurs pour reconstruire l’audio. Les résultats expérimentaux montrent la capacité du modèle à décomposer l’audio, mais il y a place à amélioration, notamment en améliorant la qualité de la reconstruction et en réduisant les événements redondants.

DeepSeek R1 apporte l'IA à la périphérie sur les PC Copilot+

2025-02-01
DeepSeek R1 apporte l'IA à la périphérie sur les PC Copilot+

Microsoft apporte la puissance de l'IA à la périphérie avec DeepSeek R1, désormais optimisé pour les PC Copilot+ équipés de processeurs Qualcomm Snapdragon et Intel Core Ultra. En tirant parti de l'unité de traitement neuronal (NPU), DeepSeek R1 s'exécute efficacement sur l'appareil, permettant des temps de réponse plus rapides et une consommation d'énergie réduite. Les développeurs peuvent facilement intégrer le modèle à l'aide de l'AI Toolkit pour créer des applications IA natives. Cette première version de DeepSeek R1-Distill-Qwen-1.5B, ainsi que les variantes 7B et 14B à venir, démontrent le potentiel de l'IA de périphérie pour une inférence efficace et des services en fonctionnement continu.

La Conquête des Tâches à 200$ par l'IA : Un Rapport d'Avancement

2025-02-01
La Conquête des Tâches à 200$ par l'IA : Un Rapport d'Avancement

L'auteur raconte avoir commandé un design de mascotte à 200$ en 2013, illustrant le type de tâches désormais réalisables par l'IA. L'IA excelle dans les tâches transactionnelles aux résultats bien définis, comme la création de logo, la transcription et la traduction, qui nécessitaient auparavant des compétences spécialisées. Cependant, les tâches plus complexes exigeant une expertise nuancée et un jugement, comme la conception de paysages, restent au-delà des capacités actuelles de l'IA. Bien que les progrès de l'IA soient impressionnants, son impact économique dans la résolution de tâches payantes n'en est qu'à ses débuts.

OpenAI lance o3-mini : un LLM puissant et économique

2025-02-01

OpenAI a lancé son nouveau modèle linguistique o3-mini, qui excelle dans le benchmark de programmation compétitive Codeforces, surpassant largement GPT-4o et o1. Bien qu'il ne soit pas universellement supérieur sur tous les critères, son prix bas (1,10 $ par million de jetons d'entrée, 4,40 $ par million de jetons de sortie) et sa limite de sortie de jetons exceptionnellement élevée (100 000 jetons) le rendent très compétitif. OpenAI prévoit de l'intégrer à ChatGPT pour la recherche web et la synthèse, et la prise en charge est déjà disponible dans LLM 0.21, mais actuellement limitée aux utilisateurs de niveau 3 (au moins 100 $ dépensés sur l'API). o3-mini offre aux développeurs une option LLM puissante et économique.

IA

Génération de musique par IA : commodité contre créativité

2025-01-31
Génération de musique par IA : commodité contre créativité

Le succès de la société de musique par IA Suno suscite une réflexion sur le rôle de l'IA dans la création artistique. L'auteur, professeur à l'université Stanford, remet en question l'affirmation de Suno selon laquelle l'IA peut facilement résoudre les aspects fastidieux de la création musicale, en faisant valoir que les défis et les difficultés inhérents au processus créatif constituent le sens et la valeur de l'art. À l'aide de ses propres expériences et pratiques pédagogiques, il illustre l'importance du processus créatif et appelle à la préservation de la création active humaine à l'ère de l'IA, évitant une culture purement consumériste.

Les diagrammes de tenseurs simplifient la manipulation des tenseurs : présentation de la bibliothèque Tensorgrad

2025-01-31

La manipulation de tenseurs de haute dimension peut être déroutante ? Un nouveau livre, "The Tensor Cookbook", simplifie ce processus à l’aide de diagrammes de tenseurs. Les diagrammes de tenseurs sont plus intuitifs que la notation d’index traditionnelle (einsum), révélant facilement les motifs et les symétries, évitant les tracas de la vectorisation et des produits de Kronecker, simplifiant le calcul matriciel et représentant sans effort les fonctions et la diffusion. La bibliothèque Python associée, Tensorgrad, utilise des diagrammes de tenseurs pour la manipulation et la dérivation de tenseurs symboliques, ce qui rend les calculs complexes plus faciles à comprendre.

OpenAI lance un modèle de raisonnement plus économique et plus rapide : o3-mini

2025-01-31
OpenAI lance un modèle de raisonnement plus économique et plus rapide : o3-mini

OpenAI a dévoilé o3-mini, un nouveau modèle de raisonnement IA de sa famille « o ». Avec des capacités comparables à la famille o1, o3-mini se distingue par sa vitesse supérieure et son coût inférieur. Optimisé pour les problèmes STEM, notamment la programmation, les mathématiques et les sciences, il est disponible sur ChatGPT avec des paramètres d'« effort de raisonnement » ajustables pour trouver un équilibre entre vitesse et précision. Les utilisateurs payants bénéficient d'un accès illimité, tandis que les utilisateurs gratuits ont une limite de requêtes. Également accessible via l'API d'OpenAI pour certains développeurs, o3-mini offre des prix compétitifs et une sécurité améliorée, même s'il ne surpasse pas le modèle R1 de DeepSeek sur tous les benchmarks.

IA

DeepSeek : Un outsider chinois de l'IA fait son apparition

2025-01-31
DeepSeek : Un outsider chinois de l'IA fait son apparition

DeepSeek, une entreprise d'IA incubée par le fonds spéculatif chinois High-Flyer, a pris d'assaut le monde avec ses modèles hautement efficaces, DeepSeek V3 et R1. DeepSeek V3 se vante de faibles coûts de formation (considérablement plus élevés que les 6 millions de dollars annoncés) et de performances puissantes, ainsi que de l'innovation technologique Multi-head Latent Attention, ce qui entraîne des avantages substantiels en termes de coûts d'inférence. Si le succès de DeepSeek est lié à son investissement massif en GPU (environ 50 000 GPU Hopper) et à l'importance accordée aux talents, sa stratégie de prix bas soulève des questions quant à la durabilité des coûts. Google Gemini Flash 2.0 Thinking représente également un défi pour la position de leader de DeepSeek. L'essor de DeepSeek reflète la force croissante de la technologie IA chinoise, tout en incitant à la réflexion sur la compétition technologique internationale et les contrôles à l'exportation.

Entraînez votre propre modèle d'image IA en moins de 2 heures

2025-01-31
Entraînez votre propre modèle d'image IA en moins de 2 heures

L'auteur a entraîné un modèle d'image IA personnalisé en moins de deux heures pour générer des images de lui-même dans différents styles, comme une version Superman. Cela a été réalisé en utilisant le modèle Flux et la technique d'entraînement LoRA, en tirant parti du service cloud GPU facile à utiliser de Replicate et d'outils pré-construits. Avec seulement quelques photos personnelles et Hugging Face pour le stockage du modèle, le processus a été étonnamment simple. Les résultats ont varié, mais étaient suffisamment amusants pour justifier le faible coût (moins de 10$).

IA

RamaLama : Exécuter des modèles d'IA aussi facilement que Docker

2025-01-31
RamaLama : Exécuter des modèles d'IA aussi facilement que Docker

RamaLama est un outil en ligne de commande conçu pour simplifier l'exécution et la gestion locales des modèles d'IA. Tirant parti de la technologie des conteneurs OCI, il détecte automatiquement la prise en charge du GPU et extrait les modèles de registres tels que Hugging Face et Ollama. Les utilisateurs évitent les configurations système complexes ; des commandes simples exécutent des chatbots ou des API REST. RamaLama prend en charge Podman et Docker, offrant des alias de modèles pratiques pour une meilleure convivialité.

DeepSeek R1 : un modèle open source qui défie OpenAI dans les tâches de raisonnement complexe

2025-01-31
DeepSeek R1 : un modèle open source qui défie OpenAI dans les tâches de raisonnement complexe

DeepSeek R1, un modèle open source, relève le défi des modèles d'OpenAI dans les tâches de raisonnement complexe. Utilisant l'optimisation de politique relative de groupe (GRPO) et une approche d'entraînement multi-étapes axée sur l'apprentissage par renforcement, les créateurs ont publié non seulement le modèle, mais aussi un article de recherche détaillant son développement. L'article décrit un "moment eureka" pendant l'entraînement où le modèle a appris à allouer plus de temps de réflexion à un problème en réévaluant son approche initiale, sans retour d'information humain. Ce billet de blog recrée ce "moment eureka" à l'aide de GRPO et du jeu Countdown, en entraînant un modèle ouvert pour apprendre des capacités d'autovérification et de recherche. Un code interactif Jupyter Notebook, ainsi que des scripts et des instructions pour l'entraînement distribué sur des nœuds multi-GPU ou des clusters SLURM, sont fournis pour faciliter l'apprentissage de GRPO et de TRL.

IA

Le Syndicat des Auteurs Lance la Certification « Écrit par un Humain » pour Lutter Contre les Livres Généré par l’IA

2025-01-31
Le Syndicat des Auteurs Lance la Certification « Écrit par un Humain » pour Lutter Contre les Livres Généré par l’IA

Face à la multiplication des livres générés par l’IA sur des plateformes comme Amazon, le Syndicat des Auteurs a lancé une certification « Écrit par un Humain ». Cette initiative vise à clarifier l’origine des ouvrages, distinguant les livres écrits par des humains de ceux générés par l’IA. Actuellement limitée aux membres du syndicat et aux livres écrits par un seul auteur, la certification sera étendue aux non-membres et aux livres à plusieurs auteurs. Bien qu’une assistance mineure de l’IA pour la grammaire et l’orthographe soit autorisée, la certification souligne que l’expression littéraire principale doit être d’origine humaine. Le syndicat présente cela non pas comme une opposition à la technologie, mais comme une démarche de transparence et une reconnaissance de l’élément humain unique dans la narration.

IA
1 2 33 34 35 36 37 38 39 41 Next →