Category: IA

L'automate cellulaire de Codd : une machine auto-réplicative simplifiée

2025-05-04
L'automate cellulaire de Codd : une machine auto-réplicative simplifiée

En 1968, l'informaticien britannique Edgar F. Codd a conçu un automate cellulaire (AC) avec seulement 8 états, simplifiant la machine auto-réplicative à 29 états de von Neumann. Codd a démontré la possibilité d'une machine auto-réplicative dans son AC, mais une implémentation complète n'a été réalisée qu'en 2009 par Tim Hutton. Le travail de Codd a stimulé la recherche sur l'organisation logique nécessaire à l'auto-réplication dans les automates, inspirant des raffinements ultérieurs par des chercheurs comme Devore et Langton, menant à des conceptions auto-réplicatives moins complexes.

IA

TScale : Entraîner des LLM sur du matériel grand public

2025-05-04
TScale : Entraîner des LLM sur du matériel grand public

TScale est une infrastructure d'entraînement et d'inférence de modèles de transformateurs écrite en C++ et CUDA, conçue pour fonctionner sur du matériel grand public. Elle permet de réduire considérablement les coûts et les temps d'entraînement grâce à une architecture optimisée, au calcul basse précision (fp8 et int8), au déchargement de la CPU et à l'entraînement distribué synchrone et asynchrone. Même un modèle de 1 T de paramètres devient gérable grâce à des techniques d'indexation intelligentes, permettant l'entraînement sur des ordinateurs domestiques classiques. TScale démontre un potentiel immense pour réduire les obstacles à l'entraînement des LLM.

Un graphique de prévision de l'IA erroné devient viral : un récit d'avertissement

2025-05-04
Un graphique de prévision de l'IA erroné devient viral : un récit d'avertissement

METR, un laboratoire de recherche à but non lucratif, a publié un rapport montrant les progrès rapides des grands modèles de langage dans les tâches logicielles, suscitant des discussions virales. Cependant, la prémisse du graphique est erronée : il utilise le temps de résolution humaine pour mesurer la difficulté du problème et le temps de taux de réussite de 50 % de l'IA comme mesure de capacité. Cela ignore les complexités diverses des problèmes, conduisant à des résultats arbitraires impropres à la prédiction. Bien que l'ensemble de données de METR et les discussions sur les limites actuelles de l'IA soient précieux, utiliser le graphique pour des prédictions de capacité future de l'IA est trompeur. Sa propagation virale souligne une tendance à croire ce que l'on veut croire plutôt que de se concentrer sur la validité.

Dix nouveaux mots pour l'ère de la communication par IA

2025-05-03
Dix nouveaux mots pour l'ère de la communication par IA

L'essor de l'IA a fondamentalement changé notre façon de communiquer. Cet article présente avec humour dix nouveaux termes pour décrire ce changement, tels que « chatjacked » (IA qui pirate les conversations), « prasted » (coller la sortie de l'IA sans modification), « prompt ponged » (aller-retour piloté par l'IA) et « AI'm a Writer Now » (écriture propulsée par l'IA). Il illustre de manière vivante l'impact de l'IA sur la communication, conduisant à une réflexion sur l'auteur, la sincérité et le sens de la connexion authentique. Un article amusant mais stimulant qui nous encourage à considérer comment maintenir une communication authentique à l'ère de l'IA.

IA Langage

Littérature générée par IA : préjugés et fluidité

2025-05-03
Littérature générée par IA : préjugés et fluidité

Cet essai examine les préjugés contre les œuvres littéraires générées par les grands modèles de langage (LLM), un préjugé analogue aux préjugés historiques contre les écrivaines. L’auteur soutient que le fait de rejeter l’écriture par l’IA comme étant intrinsèquement défectueuse simplement parce qu’elle n’est pas humaine n’est pas justifié. L’article approfondit la relation entre la fluidité linguistique et la pensée, démontrant qu’une grande partie du langage humain est habituelle et non réflexive, pas fondamentalement différente du texte généré par l’IA. En fin de compte, l’auteur préconise une approche ouverte à la lecture des œuvres générées par l’IA, car elles peuvent révéler des formes d’expression linguistique inattendues et innovantes.

L'impact de l'IA sur la science et les mathématiques : les experts prédisent la prochaine décennie

2025-05-03
L'impact de l'IA sur la science et les mathématiques : les experts prédisent la prochaine décennie

Quanta Magazine a interviewé près de 100 scientifiques et mathématiciens sur l'impact de l'intelligence artificielle sur leurs domaines. Presque tous ont rapporté avoir ressenti les effets disruptifs de l'IA, qu'ils soient directement impliqués dans son développement ou indirectement influencés par son potentiel. Beaucoup adaptent leurs approches aux expériences, recherchent de nouvelles collaborations ou formulent des questions de recherche entièrement nouvelles. L'article se termine par une question stimulante : où tout cela mènera-t-il dans les 5 à 10 prochaines années ? Les experts s'accordent pour dire que le progrès rapide de l'IA rend les prédictions précises difficiles, et son impact se poursuivra pendant de nombreuses années.

IA

Google Family Link permettra aux enfants d'accéder à Gemini AI

2025-05-03
Google Family Link permettra aux enfants d'accéder à Gemini AI

Google déploie l'accès à ses applications Gemini AI pour les enfants via ses contrôles parentaux Family Link sur les appareils Android. Bien que Gemini puisse aider avec les devoirs et raconter des histoires, Google avertit les parents que l'IA peut faire des erreurs et que les enfants peuvent rencontrer du contenu inapproprié. Google assure que les données des enfants ne seront pas utilisées pour entraîner l'IA. Il est conseillé aux parents de discuter avec leurs enfants pour leur expliquer que Gemini n'est pas humain et d'éviter de partager des informations sensibles. Les parents conservent le contrôle via Family Link, recevant des notifications lors du premier accès de leur enfant à Gemini et conservant la possibilité de désactiver complètement l'accès.

Le robot de DeepMind atteint un niveau de compétition humain au tennis de table

2025-05-02
Le robot de DeepMind atteint un niveau de compétition humain au tennis de table

Une équipe de Google DeepMind a développé un robot capable de rivaliser au tennis de table au niveau d'un expert humain. La recherche, détaillée dans un article publié et des vidéos, montre les performances impressionnantes du robot dans un environnement complexe et dynamique, représentant une avancée significative dans la robotique alimentée par l'IA. Le projet a impliqué de nombreux chercheurs de DeepMind, soulignant la puissance de la recherche collaborative.

Démo d'inférence GPT-2 dans le navigateur avec WebGL2

2025-05-02
Démo d'inférence GPT-2 dans le navigateur avec WebGL2

Ce projet impressionnant apporte la passe en avant complète du modèle GPT-2 small (117M de paramètres) au navigateur à l'aide de WebGL2. En tirant parti des shaders WebGL2 pour le calcul sur GPU et de js-tiktoken pour la tokenisation BPE (pas besoin de WASM), il exécute GPT-2 directement dans le navigateur. Un script Python télécharge les poids pré-entraînés, et le front-end est construit avec Vite pour le remplacement de modules à chaud. C'est un excellent exemple de l'apport de modèles d'IA avancés au navigateur, montrant les capacités de pointe des technologies web.

IA

Une IA génère plus de 500 mashups de genres musicaux bizarres

2025-05-02
Une IA génère plus de 500 mashups de genres musicaux bizarres

Un mystérieux programme d'IA a généré plus de 500 combinaisons inhabituelles de genres musicaux, telles que "Reggae arabe gothique" et "Touareg de saxophone". Ces combinaisons mélangent audacieusement diverses cultures et styles musicaux, démontrant les possibilités illimitées de l'IA dans la création musicale. Cela suscite des réflexions sur l'avenir de la composition musicale et offre aux musiciens une nouvelle inspiration créative.

IA

Les assistants d'écriture basés sur l'IA homogénéisent les styles d'écriture dans le Sud Global

2025-05-02
Les assistants d'écriture basés sur l'IA homogénéisent les styles d'écriture dans le Sud Global

Une étude de l'Université Cornell révèle que les assistants d'écriture basés sur l'IA peuvent homogénéiser les styles d'écriture vers les normes occidentales, impactant particulièrement des milliards d'utilisateurs dans le Sud Global. L'étude a montré que l'écriture des utilisateurs indiens et américains est devenue plus similaire lors de l'utilisation d'un assistant IA, principalement au détriment des styles d'écriture indiens. Bien que les deux groupes aient connu une augmentation de la vitesse d'écriture, les Indiens ont constaté un gain de productivité moindre en raison de la correction fréquente des suggestions de l'IA. L'IA suggérait souvent des aliments et des fêtes américains, remplaçant même des célébrités indiennes par des occidentales. Les chercheurs qualifient cela de « colonialisme de l'IA », exhortant les entreprises technologiques à se concentrer sur les nuances culturelles pour des outils IA plus inclusifs.

IA Langue

Dopamine : Le signal de « tout est clair » du cerveau pour l'extinction de la peur

2025-05-01

Des neuroscientifiques du MIT ont découvert que la libération de dopamine le long d'un circuit cérébral spécifique agit comme un signal de « tout est clair », apprenant au cerveau à éteindre la peur. Leurs recherches sur des souris révèlent que la dopamine cible différentes populations de neurones au sein de l'amygdale, codant un souvenir d'extinction de la peur. Ce mécanisme, lorsqu'il fonctionne correctement, restaure le calme ; lorsqu'il est perturbé, il peut contribuer à l'anxiété ou au SSPT. L'étude identifie une cible thérapeutique potentielle pour les troubles liés à la peur, suggérant que des interventions pourraient moduler les récepteurs de la dopamine ou des neurones spécifiques pour influencer la formation et l'extinction de la mémoire de la peur.

Le moteur de recherche en mode IA de Google entre en bêta publique

2025-05-01
Le moteur de recherche en mode IA de Google entre en bêta publique

Google déploie son moteur de recherche en mode IA auprès d'un petit pourcentage d'utilisateurs américains. Cette recherche alimentée par l'IA répondra aux requêtes avec des réponses générées par l'IA basées sur l'index de Google, contrairement aux résultats de recherche traditionnels. Placé en bonne place dans l'onglet de recherche, le mode IA est en concurrence avec des offres similaires de Perplexity et d'OpenAI. Google a supprimé la liste d'attente et ajouté des fonctionnalités telles que les recherches enregistrées et les cartes cliquables pour les produits et les lieux, améliorant ainsi l'expérience utilisateur.

IA

Ensemble de données audio d'émotions : sept émotions différentes

2025-05-01

Cet ensemble de données contient des échantillons audio représentant sept émotions différentes : neutre, heureux, calme, triste, en colère, effrayé, dégoûté et surpris. Le grand nombre de clips audio fournit des ressources précieuses pour entraîner et tester des modèles de reconnaissance d'émotions, contribuant ainsi de manière significative au domaine de l'informatique affective de l'IA.

Waypoint : Automatisation de la planification urbaine avec l'IA – Recrutement du premier ingénieur

2025-05-01
Waypoint : Automatisation de la planification urbaine avec l'IA – Recrutement du premier ingénieur

Waypoint révolutionne la planification urbaine grâce à l'automatisation par l'IA, en s'attaquant aux inefficacités et aux coûts élevés liés aux cabinets de conseil traditionnels. Ils recherchent leur premier ingénieur pour construire leurs systèmes d'ingénierie à partir de zéro. Les projets comprennent l'ajustement fin des modèles YOLO pour la segmentation des trottoirs, le développement d'un système de traitement des documents de planification urbaine et l'automatisation de la génération de recommandations de sécurité aux intersections. Le candidat idéal est un programmeur confirmé, un apprenant rapide, un bon résolveur de problèmes et passionné par l'amélioration de la planification urbaine.

Intégrations et Recherche Avancée de Claude : une mise à jour puissante

2025-05-01
Intégrations et Recherche Avancée de Claude : une mise à jour puissante

Anthropic a annoncé des mises à jour importantes pour Claude, introduisant des intégrations permettant aux développeurs de connecter diverses applications et outils, et étendant ses capacités de recherche. Le mode de recherche avancée permet à Claude de rechercher sur le Web, dans Google Workspace et maintenant également dans les intégrations connectées, en effectuant des recherches jusqu'à 45 minutes et en fournissant des rapports complets avec des citations. La recherche Web est désormais disponible globalement pour tous les utilisateurs payants de Claude. Ces mises à jour améliorent considérablement les fonctionnalités et l'efficacité de Claude, faisant de lui un outil de collaboration plus puissant.

Les « guerres de la compréhension » : échelle contre signification à l'ère des LLM

2025-05-01
Les « guerres de la compréhension » : échelle contre signification à l'ère des LLM

Alors que les modèles transformateurs dépassaient les niveaux humains sur les benchmarks de PNL, un débat a éclaté sur leurs capacités, culminant dans les « guerres de la compréhension » de 2020-22. Le « test de la pieuvre » de Bender et al. a soutenu que les modèles imitant le langage statistiquement ne pouvaient pas saisir le sens. L'arrivée de GPT-3 a intensifié le conflit, sa puissance choquant les chercheurs tout en soulevant des inquiétudes concernant la sécurité et l'éthique. Le débat a mis en lumière des divergences de méthodologie et d'orientation entre le monde universitaire et l'industrie, menant à une « guerre civile » interne dans le domaine de la PNL.

IA

Tendance inquiétante : les jeunes diplômés confrontés à un marché du travail difficile

2025-05-01
Tendance inquiétante : les jeunes diplômés confrontés à un marché du travail difficile

Le marché du travail pour les jeunes diplômés aux États-Unis est nettement plus difficile qu'il ne l'a été depuis des décennies. Le taux de chômage atteint 5,8 %, et même les diplômés de MBA de grandes écoles rencontrent des difficultés. Trois explications possibles sont avancées : les effets persistants de la pandémie et de la Grande Récession ; un retour sur investissement moindre pour un diplôme universitaire ; et le potentiel disruptif de l'IA, capable d'automatiser les tâches autrefois réalisées par les employés de bureau débutants. Même si l'impact de l'IA sur l'emploi reste incertain, les difficultés des jeunes diplômés constituent un avertissement, qui pourrait signaler des problèmes économiques à court terme, une évolution de la valeur des études supérieures ou l'impact à long terme de l'IA sur le marché du travail.

Fossilles numériques dans l'IA : comment des termes absurdes s'infiltrent dans nos connaissances

2025-05-01
Fossilles numériques dans l'IA : comment des termes absurdes s'infiltrent dans nos connaissances

Des scientifiques ont découvert le terme absurde « microscopie électronique végétative » se propageant dans les modèles d'IA. Né d'erreurs de numérisation d'articles des années 1950 et amplifié par des erreurs de traduction, il s'est intégré aux grands modèles de langage. Cela souligne les défis liés à la taille des ensembles de données d'entraînement, au manque de transparence et à la nature autoperpétuatrice des erreurs dans l'IA. L'incident pose de sérieux problèmes à la recherche académique et à l'édition, invitant à une réflexion sur le maintien de systèmes de connaissances fiables.

L'incompréhension du 'vibe coding' : une occasion manquée

2025-05-01
L'incompréhension du 'vibe coding' : une occasion manquée

Deux éditeurs et trois auteurs ont fondamentalement mal interprété le sens du 'vibe coding', le confondant avec la programmation assistée par IA. L'auteur soutient que le véritable 'vibe coding', tel que défini par Andrej Karpathy, implique l'utilisation de l'IA pour générer du code sans se concentrer sur les détails du code ; c'est une approche low-code pour les non-programmeurs. L'auteur exprime sa déception que les éditeurs et les auteurs n'aient pas complètement saisi la définition de Karpathy, manquant ainsi une grande occasion de créer un livre précieux sur la manière de donner aux non-programmeurs les moyens de créer des logiciels personnalisés à l'aide de l'IA sans apprendre la programmation traditionnelle.

IA

Hyperparam : L’interface manquante pour les données IA, désormais open source

2025-05-01

Hyperparam s’attaque à un défi crucial dans le machine learning : le manque d’outils conviviaux pour explorer des ensembles de données massifs. Sa suite d’outils open source, comprenant Hyparquet (lecteur Parquet en navigateur), Hyparquet-Writer (exporteur Parquet), HighTable (tableau React scalable), Icebird (lecteur Iceberg), Hyllama (analyseur de métadonnées de modèles LLaMA) et l’interface en ligne de commande Hyperparam, permet l’exploration et la curation interactives des données directement dans le navigateur. En tirant parti de formats de données efficaces et de JavaScript hautes performances, Hyperparam permet aux scientifiques des données de travailler avec des données à l’échelle du téraoctet localement et de manière privée, sans infrastructure serveur complexe. Cette approche privilégie la sécurité et la conformité des données.

IA

Scandale de benchmarking de l'IA : les grandes entreprises technologiques ont-elles truqué Chatbot Arena ?

2025-05-01
Scandale de benchmarking de l'IA : les grandes entreprises technologiques ont-elles truqué Chatbot Arena ?

Un nouvel article de Cohere, Stanford, MIT et Ai2 accuse LM Arena, l’organisation à l’origine du populaire benchmark Chatbot Arena, d’avoir favorisé injustement les grandes entreprises d’IA telles que Meta, OpenAI, Google et Amazon. Les chercheurs affirment que ces entreprises ont été autorisées à tester des variantes de modèles en privé, en supprimant les résultats médiocres pour améliorer leur classement au palmarès. En analysant plus de 2,8 millions de combats, l’étude a révélé des preuves de taux d’échantillonnage accrus, donnant à ces entreprises un avantage injuste. LM Arena conteste les conclusions, invoquant des inexactitudes, et prévoit d’améliorer son algorithme d’échantillonnage, mais nie avoir manipulé les classements. Cette controverse soulève des inquiétudes concernant l’équité et la transparence du benchmarking de l’IA et met en lumière les tactiques concurrentielles employées par les grandes entreprises technologiques dans la course à l’IA.

Exécuter Qwen3 localement sur votre Mac gratuitement : une boucle agentive avec Localforge

2025-05-01
Exécuter Qwen3 localement sur votre Mac gratuitement : une boucle agentive avec Localforge

Cet article explique comment exécuter gratuitement le puissant modèle de langage large Qwen3 sur un Mac, en l'intégrant à un agent à l'aide de Localforge. L'auteur guide méticuleusement le lecteur à travers l'installation de la bibliothèque MLX, la configuration du serveur de modèles et la configuration de Localforge, en présentant les méthodes Ollama et MLX pour exécuter Qwen3. L'auteur utilise avec succès l'agent Qwen3 pour exécuter des tâches telles que la liste de fichiers, et même en montrant un site web créé par l'agent. L'article souligne la faisabilité d'exécuter des LLMs puissants localement et de construire des agents sans coût.

IA

Phi Silica : Un modèle linguistique compact et hautement efficace pour les PC Windows 11 Copilot+

2025-05-01
Phi Silica : Un modèle linguistique compact et hautement efficace pour les PC Windows 11 Copilot+

L’équipe des sciences appliquées de Microsoft a réalisé une percée en matière d’efficacité de l’IA sur les PC Windows 11 Copilot+ (équipés de processeurs Snapdragon série X) grâce à une approche multidisciplinaire. Leur petit modèle linguistique, Phi Silica, améliore considérablement l’efficacité énergétique, la vitesse d’inférence et l’efficacité de la mémoire. Phi Silica alimente plusieurs fonctionnalités de Copilot+ PC, notamment Click to Do, les capacités de réécriture et de résumé sur l’appareil dans Word et Outlook, et fournit un SLM pré-optimisé aux développeurs. Des techniques telles que la quantification des poids à 4 bits, les plongements mappés en mémoire et QuaRot (une nouvelle méthode de quantification à 4 bits) réduisent considérablement l’empreinte mémoire et permettent une inférence quantifiée à 4 bits de haute précision. Il affiche un temps jusqu’au premier jeton de 230 ms pour les invites courtes et un débit pouvant atteindre 20 jetons/seconde.

Microsoft dévoile Phi-4 Reasoning : des petits modèles de langage qui surpassent les grands

2025-05-01
Microsoft dévoile Phi-4 Reasoning : des petits modèles de langage qui surpassent les grands

Microsoft a présenté sa nouvelle famille de petits modèles de langage (LLMs) Phi-4, comprenant Phi-4-reasoning, Phi-4-reasoning-plus et Phi-4-mini-reasoning. Ces modèles affichent des capacités de raisonnement impressionnantes, notamment en raisonnement mathématique, surpassant même des modèles plus grands sur certains benchmarks. Phi-4-mini-reasoning est optimisé pour les environnements à ressources limitées, tels que les appareils mobiles et l'edge computing. Microsoft souligne son engagement envers une IA responsable, en mettant en œuvre plusieurs mesures de sécurité pour atténuer les risques potentiels. Ces modèles sont disponibles sur Azure AI Foundry et Hugging Face, et certains sont intégrés aux PC Copilot+ de Windows 11.

DeepSeek-Prover-V2 : Faire progresser le raisonnement mathématique formel grâce à l'apprentissage par renforcement

2025-04-30
DeepSeek-Prover-V2 : Faire progresser le raisonnement mathématique formel grâce à l'apprentissage par renforcement

DeepSeek-Prover-V2 est un grand modèle de langage open source conçu pour la démonstration formelle de théorèmes en Lean 4. Il utilise un pipeline de démonstration de théorèmes récursif alimenté par DeepSeek-V3 et l'apprentissage par renforcement pour intégrer le raisonnement mathématique informel et formel. Le modèle commence par décomposer les problèmes complexes en sous-objectifs à l'aide de DeepSeek-V3, synthétisant les preuves de ces sous-objectifs pour créer des données initiales pour l'apprentissage par renforcement. DeepSeek-Prover-V2-671B atteint des performances de pointe, atteignant un taux de réussite de 88,9 % sur MiniF2F-test et résolvant 49 problèmes de PutnamBench. Un nouvel ensemble de données de référence, ProverBench, contenant 325 problèmes formalisés issus de compétitions de lycée et de manuels scolaires, est également présenté.

MiMo-7B : Un modèle de langage de 7 milliards de paramètres pour le raisonnement surpasse les modèles de 32 milliards de paramètres

2025-04-30
MiMo-7B : Un modèle de langage de 7 milliards de paramètres pour le raisonnement surpasse les modèles de 32 milliards de paramètres

Xiaomi présente MiMo-7B, un modèle linguistique de 7 milliards de paramètres conçu pour le raisonnement. Grâce à des données et des stratégies de pré-entraînement optimisées, ainsi qu'à des techniques innovantes d'apprentissage par renforcement, MiMo-7B démontre des performances exceptionnelles sur les tâches de raisonnement mathématique et de codage, surpassant même les modèles de 32 milliards de paramètres plus importants. Le modèle open source inclut des points de contrôle pour le modèle de base, le modèle SFT et les modèles entraînés par RL, offrant des ressources précieuses pour le développement de LLM de raisonnement puissants.

Explosion des modèles d'IA : La course au sommet en 2024-2025

2025-04-30

Les années 2024 et 2025 ont été témoins d'un essor sans précédent du développement de modèles d'IA. De Stable Diffusion 3 à GPT-4o, de Gemini à Claude 3, les géants de la technologie et les startups ont lancé une avalanche de nouveaux modèles, provoquant une compétition intense dans la génération d'images, la génération de vidéos, la génération de texte et la multimodalité. L'essor des modèles open source a encore plus stimulé le progrès rapide et l'accessibilité de la technologie de l'IA. Cette « bataille des modèles » continue d'évoluer, avec des nombres de paramètres et des capacités toujours plus importants, façonnant en fin de compte le paysage futur de l'IA.

IA

Test d'Aléatoire des LLM Révèle un Biais Inattendu

2025-04-30

Cette expérience a testé l'aléatoire de plusieurs grands modèles de langage (LLM) d'OpenAI et d'Anthropic. En demandant aux modèles de lancer une pièce et de prédire des nombres aléatoires entre 0 et 10, les chercheurs ont découvert un biais significatif dans leurs résultats, révélant qu'ils ne sont pas vraiment aléatoires. Par exemple, dans l'expérience du lancer de pièce, tous les modèles ont montré une préférence pour « face », GPT-o1 affichant le biais le plus extrême à 49 %. Dans la prédiction des nombres pairs/impairs, la plupart des modèles ont favorisé les nombres impairs, Claude 3.7 Sonnet affichant le biais le plus fort à 47 %. Les résultats mettent en évidence que même les LLM avancés peuvent présenter des schémas inattendus influencés par les distributions de leurs données d'entraînement.

Génération d'images par IA : dix scènes variées

2025-04-30

À partir d'une série d'invites textuelles, l'IA a réussi à générer dix images variées, allant d'un salon moderne et épuré à une rue cyberpunk futuriste, en passant par le paysage rouge et désolé de Mars, démontrant ainsi les capacités impressionnantes de génération d'images de l'IA. Ces images couvrent divers styles, notamment le photoréalisme, le dessin animé et le pixel art, ce qui illustre la polyvalence de l'IA dans différents styles artistiques et ouvre de nouvelles possibilités pour la création artistique par IA.

IA
1 2 19 20 21 23 25 26 27 40 41