Category: IA

GPT-5 : Plongeon au cœur des prix, de la fiche modèle et des caractéristiques clés

2025-08-08
GPT-5 : Plongeon au cœur des prix, de la fiche modèle et des caractéristiques clés

La famille GPT-5 d'OpenAI est arrivée ! Il ne s'agit pas d'un bond révolutionnaire, mais elle surpasse largement ses prédécesseurs en termes de fiabilité et d'utilisabilité. Dans ChatGPT, GPT-5 est un système hybride qui bascule intelligemment entre les modèles en fonction de la difficulté du problème ; la version API propose des modèles régulier, mini et nano avec quatre niveaux de raisonnement. Il possède une limite d'entrée de 272 000 jetons et une limite de sortie de 128 000 jetons, prenant en charge l'entrée de texte et d'image, mais uniquement la sortie de texte. Le prix est extrêmement compétitif, surpassant largement les concurrents. De plus, GPT-5 affiche des améliorations significatives en termes de réduction des hallucinations, d'amélioration du suivi des instructions et de minimisation de la flatterie, en utilisant une nouvelle approche d'entraînement de sécurité. Il excelle dans l'écriture, le codage et les soins de santé. Cependant, l'injection de prompt reste un problème non résolu.

IA

Amélioration de l'ajustement fin des LLM grâce à la curation itérative des données

2025-08-08
Amélioration de l'ajustement fin des LLM grâce à la curation itérative des données

Des chercheurs ont considérablement amélioré les performances des grands modèles de langage (LLM) grâce à la curation itérative de leurs données d'entraînement. Les expériences ont impliqué deux LLM de tailles différentes (Gemini Nano-1 et Nano-2) sur des tâches de complexité variable, utilisant environ 100 000 annotations provenant de la foule, initialement affectées par un fort déséquilibre des classes (95% bénignes). Grâce à la curation itérative d'experts et à l'ajustement fin du modèle, les performances ont augmenté de manière significative. Les modèles ont atteint environ 40% d'exemples positifs et un Kappa de Cohen d'environ 0,81 (complexité inférieure) et 0,78 (complexité supérieure), se rapprochant des performances de niveau expert, soulignant le rôle crucial des données de haute qualité dans l'entraînement des LLM.

AURA : Un protocole Web lisible par machine

2025-08-07
AURA : Un protocole Web lisible par machine

Le protocole AURA (Agent-Usable Resource Assertion) révolutionne l’interaction entre l’IA et le Web. Au lieu de s’appuyer sur des méthodes fragiles de grattage d’écran et de manipulation du DOM, AURA introduit un fichier manifeste standardisé `aura.json`, permettant aux sites Web de déclarer leurs capacités (par exemple, créer des publications, se connecter) sous forme de requêtes HTTP. Cela permet une interaction efficace et sécurisée entre l’IA et le site Web, et ouvre la voie à des moteurs de recherche plus intelligents qui indexent les actions, et non seulement le contenu. Le projet inclut un serveur et un client de référence, démontrant sa fonctionnalité.

Modèle open source d'OpenAI : esquiver la vraie balle éthique ?

2025-08-07
Modèle open source d'OpenAI : esquiver la vraie balle éthique ?

OpenAI a récemment publié un modèle linguistique de grande taille en open source, mais ses préoccupations déclarées concernant la « sécurité » ont soulevé des questions. L'article soutient qu'OpenAI détourne habilement les préoccupations du public concernant l'éthique de l'IA vers la moralité inhérente du modèle : l'empêcher de jurer ou de prendre des décisions nuisibles. Cependant, le public est beaucoup plus préoccupé par les implications du monde réel : gouvernance, responsabilité, utilisation des données, pertes d'emplois, etc. Cela reflète les stratégies technologiques passées en matière de confidentialité, en se concentrant sur les problèmes facilement résolubles tout en évitant les défis sociaux plus difficiles. Au lieu de se demander si l'IA suit les lignes directrices éthiques, nous devrions nous concentrer sur les entreprises et les dirigeants qui utilisent cette IA. La véritable question de l'éthique de l'IA est de savoir comment garantir que ces entreprises n'abusent pas de leurs ressources et de leur pouvoir pour nuire à l'humanité.

IA

Un ancien chercheur en IA de Google tire la sonnette d'alarme sur les LLM et les préoccupations éthiques

2025-08-07
Un ancien chercheur en IA de Google tire la sonnette d'alarme sur les LLM et les préoccupations éthiques

Bhaskar Mitra, un vétéran de 19 ans dans les grandes entreprises technologiques et ancien chercheur en IA, s'exprime après son licenciement, exposant les réalités et les dilemmes éthiques des grands modèles de langage (LLM). Il soutient que les LLM ne remplaceront pas les professionnels comme les médecins et les enseignants, et leur contrôle centralisé de l'information soulève des préoccupations concernant l'équité sociale, l'accès à l'information et la concentration du pouvoir. Mitra appelle à une réévaluation de la relation entre la technologie de l'IA et la justice sociale, plaidant pour un avenir technologique plus inclusif et humaniste.

IA

GitHub divulgue des détails sur le GPT-5 d'OpenAI

2025-08-07
GitHub divulgue des détails sur le GPT-5 d'OpenAI

Un article de blog GitHub, désormais supprimé, a accidentellement révélé des détails sur les prochains modèles GPT-5 d'OpenAI. Les quatre variantes offrent des améliorations majeures en matière de raisonnement, de qualité du code et d'expérience utilisateur, avec des capacités améliorées et la possibilité de gérer des tâches de codage complexes avec un minimum d'instructions. Cette fuite survient avant l'annonce officielle d'OpenAI d'un événement “LIVE5TREAM” pour plus tard dans la journée, consolidant ainsi les rumeurs précédentes sur le lancement imminent du GPT-5.

IA

Inflation LLM : les grands modèles de langage créent-ils des informations redondantes ?

2025-08-06

La compression de données était autrefois une caractéristique essentielle de l'informatique, mais les grands modèles de langage (LLM) ont introduit l'« inflation LLM » : les gens utilisent les LLM pour développer des informations concises en de longs textes, pour ensuite les compresser à nouveau à l'aide d'un LLM. Cela reflète un problème de communication sous-jacent : récompensons-nous implicitement l'obscurcissement et la perte de temps ? Les LLM pourraient nous aider à affronter et à résoudre ce problème.

Simulation de Bras Robotique UR5 : Saisie et Placement d'Objets

2025-08-06
Simulation de Bras Robotique UR5 : Saisie et Placement d'Objets

Ce projet simule un bras robotique UR5 avec une pince Robotiq 85, effectuant des tâches autonomes de préhension et de placement d'objets dans l'environnement PyBullet. Utilisant la cinématique inverse (IK) pour un contrôle précis du bras et un contrôle synchrone des articulations pour un mouvement réaliste de la pince, le robot saisit des cubes à partir de positions aléatoires et les place sur un plateau. La simulation inclut le placement dynamique d'objets et l'interaction en temps réel.

Genie 3 de DeepMind : des mondes 3D interactifs et persistants

2025-08-06
Genie 3 de DeepMind : des mondes 3D interactifs et persistants

Google DeepMind dévoile Genie 3, un nouveau modèle de monde d'IA capable de générer des environnements 3D interactifs et persistants. Contrairement aux itérations précédentes, Genie 3 permet des temps d'interaction beaucoup plus longs et se souvient de l'emplacement des objets même lorsque l'utilisateur détourne le regard. Offrant une résolution de 720p à 24 fps, Genie 3 permet plusieurs minutes d'interaction continue et prend en charge les modifications basées sur des invites, telles que le changement de météo ou l'ajout de personnages. Actuellement, l'accès est limité à un petit groupe d'universitaires et de créateurs à des fins d'aperçu de recherche.

Claude Opus 4.1 : Améliorations significatives du codage

2025-08-06
Claude Opus 4.1 : Améliorations significatives du codage

Anthropic a publié Claude Opus 4.1, une mise à jour majeure de Claude Opus 4, avec des améliorations significatives en matière de codage, d'application dans le monde réel et de raisonnement. La version 4.1 atteint 74,5 % sur SWE-bench Verified en termes de performances de codage et améliore les capacités de recherche approfondie et d'analyse de données, notamment en matière de suivi des détails et de recherche active. Des entreprises comme Rakuten et Windsurf ont salué ses améliorations en matière de correction de code et d'efficacité du développement. Il est désormais disponible pour les utilisateurs payants et les utilisateurs de Claude Code, et intégré à l'API, Amazon Bedrock et Vertex AI de Google Cloud.

Application Gemini : Générateur de livres d’histoires personnalisés avec IA

2025-08-06
Application Gemini : Générateur de livres d’histoires personnalisés avec IA

L’application Gemini de Google vous permet désormais de créer des livres d’histoires illustrés et personnalisés avec narration. Il vous suffit de décrire votre idée d’histoire, et Gemini génère un livre unique de 10 pages avec des illustrations et un audio personnalisés. Vous pouvez même utiliser vos propres photos et fichiers comme source d’inspiration, en choisissant parmi plus de 45 langues et une grande variété de styles artistiques, du pixel art aux bandes dessinées en passant par l’animation en stop motion. Idéal pour expliquer des sujets complexes, enseigner des leçons précieuses ou transformer les dessins d’enfants et les photos de famille en histoires magiques. Donnez vie à votre vision !

Ollama Turbo : Exécution ultra-rapide des LLMs open source

2025-08-06
Ollama Turbo : Exécution ultra-rapide des LLMs open source

Ollama Turbo est une nouvelle façon d'exécuter de grands modèles de langage open source en utilisant du matériel de niveau centre de données. De nombreux nouveaux modèles sont trop volumineux pour les GPU largement disponibles ou s'exécutent trop lentement. Ollama Turbo offre une solution pour une exécution rapide, compatible avec l'application, la CLI et l'API d'Ollama. Actuellement en préversion, il prend en charge les modèles gpt-oss-20b et gpt-oss-120b. Il fonctionne avec la CLI, l'API et les bibliothèques JavaScript/Python d'Ollama. Ollama n'enregistre ni ne conserve aucune requête effectuée en mode Turbo. Tout le matériel est situé aux États-Unis. Des limites d'utilisation (horaires et quotidiennes) sont en place pour gérer la capacité, avec une tarification à l'utilisation prochainement disponible.

IA

Genie 3 : Remerciements et les héros derrière le projet

2025-08-06
Genie 3 : Remerciements et les héros derrière le projet

Le succès du grand modèle linguistique Genie 3 est dû aux contributions significatives de nombreux chercheurs et ingénieurs. Cette longue liste de remerciements met en lumière l'effort collaboratif à toutes les étapes, du développement principal à la production vidéo. Cela souligne l'immense travail d'équipe et le réseau de soutien crucial pour un projet d'IA aussi complexe.

IA

Kitten TTS : Modèle texte-à-parole léger et haute qualité

2025-08-06
Kitten TTS : Modèle texte-à-parole léger et haute qualité

Kitten TTS est un nouveau modèle texte-à-parole (TTS) open source et réaliste avec seulement 15 millions de paramètres. Conçu pour un déploiement léger, il offre une synthèse vocale de haute qualité. Une simple installation pip et quelques lignes de code suffisent pour générer de la parole avec plusieurs options de voix, ce qui le rend idéal pour les appareils aux ressources limitées.

IA

Répétition espacée consciente du contenu : la prochaine génération d’apprentissage ?

2025-08-05
Répétition espacée consciente du contenu : la prochaine génération d’apprentissage ?

Les systèmes de répétition espacée (SRS) traditionnels présentent un point aveugle : ils ignorent la signification sémantique des fiches, s’appuyant uniquement sur des modèles de mémoire pour prédire la rétention. Cet article présente des modèles de mémoire conscients du contenu, qui exploitent le contenu textuel et les relations sémantiques entre les fiches pour améliorer l’efficacité de l’apprentissage. Cela ouvre la voie à des outils d’apprentissage plus fluides et intelligents, tels que des systèmes de mémoire centrés sur les idées et une répétition espacée conversationnelle avec IA. L’auteur différencie également les planificateurs et les modèles de mémoire, et explore les avantages, les défis et les orientations futures des modèles de mémoire conscients du contenu, tels que la nécessité de jeux de données plus importants et publiquement disponibles qui incluent à la fois le contenu textuel des fiches et l’historique des révisions.

IA

Qwen-Image : Lancement d'un modèle de base d'image de 20 milliards de paramètres

2025-08-05
Qwen-Image : Lancement d'un modèle de base d'image de 20 milliards de paramètres

Alibaba DAMO Academy a lancé Qwen-Image, un modèle de base d'image de 20 milliards de paramètres qui réalise des progrès significatifs dans le rendu de texte complexe et l'édition précise d'images. Il offre un rendu de texte haute fidélité dans plusieurs langues (y compris l'anglais et le chinois), préservant la signification sémantique et le réalisme visuel lors des opérations d'édition. Qwen-Image surpasse les modèles existants sur plusieurs benchmarks de génération et d'édition d'images. Des démonstrations ont mis en évidence ses capacités : générer des images avec une typographie et des mises en page chinoises complexes, créer des diapositives PPT détaillées et même gérer le rendu de texte bilingue, soulignant ses solides capacités de traitement de texte et de génération d'images.

Les LLM échouent à identifier les polices : un benchmark en direct

2025-08-04
Les LLM échouent à identifier les polices : un benchmark en direct

Un développeur a évalué GPT-4 et Gemini sur un benchmark en direct et mis à jour en continu de polices non identifiées provenant du forum DaFont. Malgré la fourniture d'un contexte tel que des images, des titres et des descriptions, les deux LLM ont obtenu des résultats très médiocres. Cela souligne les limites, même dans des tâches de classification d'images apparemment simples, suggérant que les LLM sont loin d'être une solution universelle. Le projet utilise des scripts Python pour le scraping de données, GitHub Actions pour l'automatisation, JSON pour le stockage et Observable pour un tableau de bord dynamique.

Contrôler les personnalités de l'IA : identification des « vecteurs de persona » pour prévenir une IA « malveillante »

2025-08-03
Contrôler les personnalités de l'IA : identification des « vecteurs de persona » pour prévenir une IA « malveillante »

Des chercheurs d'Anthropic ont découvert que les changements de personnalité des modèles d'IA ne sont pas aléatoires ; ils sont contrôlés par des « vecteurs de persona » spécifiques au sein du réseau neuronal du modèle. Ces vecteurs sont analogues aux régions du cerveau qui contrôlent l'humeur et l'attitude. En identifiant et en manipulant ces vecteurs, les chercheurs peuvent surveiller, atténuer et même prévenir les personnalités indésirables telles que la « malveillance », la « flatterie » ou les « hallucinations ». Cette technologie améliore l'entraînement des modèles d'IA, identifie les données d'entraînement problématiques et garantit l'alignement avec les valeurs humaines.

Sculley de Google se lance dans l'aventure manufacturière de la Fab Academy

2025-08-03

D. Sculley, responsable de l'apprentissage automatique chez Google à Cambridge, participe à la Fab Academy. Avec une expérience en ML depuis 2003 et une expérience préalable dans l'éducation, Sculley vise à explorer l'intersection du ML et de diverses techniques de fabrication, de la CAO et de la découpe laser à l'impression 3D. Il prévoit de réaliser un projet chaque semaine, aboutissant à un projet final, promettant un voyage d'apprentissage stimulant et enrichissant.

IA

L'illusion du coût des LLM : comment la mise à l'échelle a tué l'abonnement à prix fixe

2025-08-03
L'illusion du coût des LLM : comment la mise à l'échelle a tué l'abonnement à prix fixe

De nombreuses entreprises d'IA ont misé sur la tendance à la baisse de 10 x par an des coûts des LLM, en supposant que les pertes initiales seraient compensées par des marges élevées futures. La réalité est différente. Si les coûts des modèles diminuent, la demande des utilisateurs pour les meilleurs modèles continue de croître, entraînant une explosion de l'utilisation de l'informatique. La longueur des réponses de modèles tels que ChatGPT a considérablement augmenté, entraînant une croissance exponentielle de la consommation de jetons. Cela signifie que, même avec des réductions de coûts, les dépenses globales dépassent de loin les attentes. L'article analyse trois contre-stratégies : la tarification à l'utilisation dès le premier jour, la création de coûts de commutation élevés pour des marges élevées et l'intégration verticale pour tirer profit de l'infrastructure. L'auteur conclut que le maintien d'un modèle d'abonnement à prix fixe mènera finalement à la faillite.

L'IA peut-elle ressentir de la culpa ? Des simulations montrent la clé de la coopération

2025-08-03
L'IA peut-elle ressentir de la culpa ? Des simulations montrent la clé de la coopération

Une nouvelle recherche suggère que même des agents d'IA simples peuvent favoriser la coopération en simulant un mécanisme de « culpabilité ». Les chercheurs ont conçu un jeu du dilemme du prisonnier itératif où les agents d'IA choisissaient entre coopération et trahison. Les résultats ont montré que lorsque les agents d'IA ressentaient de la « culpabilité » (pénalisés par des scores réduits) après une trahison et pouvaient percevoir la « culpabilité » de leur partenaire, le comportement coopératif augmentait significativement. Cette recherche offre de nouvelles perspectives pour la conception de systèmes d'IA plus fiables et dignes de confiance, mais souligne également les défis de l'application de la « culpabilité » à l'IA dans le monde réel, tels que la définition et la mesure du « coût » de l'IA.

Le mode Étude d'OpenAI : une approche sucrée pour l'éducation par l'IA ?

2025-08-02
Le mode Étude d'OpenAI : une approche sucrée pour l'éducation par l'IA ?

Le nouveau "mode Étude" d'OpenAI vise à aider l'apprentissage en guidant les utilisateurs grâce à des questions interactives et des retours positifs, plutôt que de fournir des réponses directes. L'auteur remet en question l'efficacité de cette approche, arguant qu'elle pourrait trop complaire aux élèves, conduisant à une dépendance à l'IA au lieu d'une pensée indépendante. Grâce à des expériences avec différents modèles d'IA, l'auteur montre que le "mode Étude" encourage les louanges excessives et un comportement complaisant envers l'utilisateur, ce qui pourrait avoir un impact négatif sur l'apprentissage et présenter des risques pour les élèves vulnérables. Tout en reconnaissant certains avantages, l'auteur souligne le potentiel de l'IA comme outil de recherche plutôt que sa dépendance excessive comme outil pédagogique.

La Leçon Amère : Un Paradoxe dans le Développement de l’IA

2025-08-02
La Leçon Amère : Un Paradoxe dans le Développement de l’IA

La « leçon amère » de Rich Sutton affirme que les méthodes générales tirant parti du calcul sont en fin de compte les plus efficaces. Cet article explore la manifestation de cette idée dans des domaines tels que le Go, les échecs, la reconnaissance vocale et la vision par ordinateur, ainsi que ses défis dans les applications d’entreprise. Si le calcul à grande échelle produit des avancées dans certains domaines, l’article souligne les limites de la qualité des données et des objectifs clairement définis, en arguant que des modèles spécialisés efficaces surpassent parfois les modèles à usage général, et que les ressources informatiques ne sont pas toujours la solution idéale.

IA

Anthropic coupe l'accès d'OpenAI à l'API Claude

2025-08-02
Anthropic coupe l'accès d'OpenAI à l'API Claude

Anthropic a révoqué l'accès d'OpenAI à l'API de ses modèles Claude, invoquant des violations de ses conditions d'utilisation. OpenAI aurait utilisé l'API pour des tests internes, comparant les capacités de Claude en codage et en écriture créative, et évaluant ses réponses à des invites de sécurité concernant le CSAM, l'automutilation et la diffamation. Anthropic a déclaré que cela violait les clauses interdisant l'utilisation du service pour créer des produits concurrents ou pour effectuer une ingénierie inverse de ses services. OpenAI a exprimé sa déception, soulignant que l'évaluation d'autres systèmes d'IA est une pratique standard dans l'industrie et précisant que son API reste ouverte à Anthropic. Cet incident souligne l'intensification de la concurrence entre les géants de la technologie et les complexités entourant l'accès aux modèles d'IA et les conditions d'utilisation.

Attention Creuse Natif : Alignement Matériel et Entraînement Natif

2025-08-02
Attention Creuse Natif : Alignement Matériel et Entraînement Natif

La modélisation de contexte long reste un défi en PNL. Cet article d'ACL 2025 présente NSA, un mécanisme d'attention creuse entraîné nativement. NSA combine intelligemment des innovations algorithmiques avec des optimisations alignées sur le matériel. En utilisant une stratégie creuse hiérarchique dynamique (compression de jetons à grain grossier et sélection de jetons à grain fin), il réalise des gains d'efficacité significatifs tout en préservant la conscience du contexte global et la précision locale. NSA permet un entraînement de bout en bout, réduisant les coûts de pré-entraînement, et égale ou dépasse les modèles d'attention complète sur plusieurs benchmarks, montrant des accélérations substantielles sur les séquences de 64k de longueur lors du décodage, de la propagation avant et de la propagation arrière.

IA : Rehaussement du plancher, pas du plafond

2025-08-01

Cet article explore l’impact de l’IA sur l’apprentissage et le travail. L’IA abaisse la barrière à l’entrée pour l’acquisition de nouvelles compétences, mais la maîtrise reste un défi. En programmation, l’IA aide considérablement les gestionnaires, mais offre une aide limitée aux grandes bases de code. L’impact de l’IA sur les domaines créatifs est minime, car la nouveauté est cruciale. Pour les domaines disposant d’applications déjà établies (par exemple, e-mail, livraison de nourriture), l’influence de l’IA est négligeable. Essentiellement, l’IA rehausse le plancher pour le travail du savoir, mais son impact n’est pas uniforme, variant considérablement selon l’individu et son domaine.

IA

Gemini Embedding : La puissance pour la prochaine génération d'agents IA

2025-08-01
Gemini Embedding : La puissance pour la prochaine génération d'agents IA

Depuis sa sortie, le modèle de texte Gemini Embedding de Google a été rapidement adopté par les développeurs créant des applications IA avancées. Au-delà des utilisations traditionnelles comme la classification et la recherche sémantique, il est crucial pour l'« ingénierie du contexte », fournissant aux agents IA un contexte opérationnel complet. Des entreprises comme Box, re:cap, Everlaw, Roo Code, Mindlid et Interaction Co. tirent déjà parti de sa puissance pour améliorer la précision, la vitesse et la conscience contextuelle de leurs produits. De l'amélioration de l'analyse des données financières à l'amélioration de la découverte juridique et à l'alimentation des assistants IA, les hautes performances et la prise en charge multilingue de Gemini Embedding jettent les bases de la prochaine génération d'agents intelligents.

Modèle d'image open source FLUX.1-Krea [dev] : Briser le « look IA »

2025-08-01
Modèle d'image open source FLUX.1-Krea [dev] : Briser le « look IA »

Nous publions la version open source de FLUX.1-Krea [dev], notre premier modèle d'image entraîné en collaboration avec Black Forest Labs. Ce modèle privilégie le contrôle esthétique et la qualité de l'image, s'intégrant parfaitement à l'écosystème FLUX.1-dev existant. Contrairement à la plupart des modèles d'image, FLUX.1-Krea a été développé avec des préférences esthétiques spécifiques en tête, plutôt que de se concentrer uniquement sur les benchmarks techniques. Ce rapport technique détaille le développement du modèle, y compris des informations sur le pré-entraînement et le post-entraînement, ainsi que les futures orientations de recherche. L'objectif principal est de surmonter l'aspect « look IA » commun aux images générées – arrière-plans flous, textures cireuses, etc. – en obtenant des résultats de haute qualité alignés sur les normes esthétiques humaines grâce à des ensembles de données soigneusement sélectionnés et à l'apprentissage par renforcement.

IA

GEPA : La réflexion linguistique surpasse l’apprentissage par renforcement pour l’optimisation des invites d’IA

2025-07-31
GEPA : La réflexion linguistique surpasse l’apprentissage par renforcement pour l’optimisation des invites d’IA

Des chercheurs présentent GEPA, un nouvel algorithme pour optimiser les invites dans les systèmes d’IA complexes. Contrairement à l’apprentissage par renforcement (RL) traditionnel, GEPA utilise une approche évolutive basée sur le langage. Un LLM analyse ses propres performances — raisonnement, utilisation d’outils et retours — pour identifier et corriger les erreurs. GEPA surpasse significativement les méthodes RL, utilisant beaucoup moins d’exécutions du système tout en obtenant de meilleurs résultats sur diverses tâches. Cela souligne le potentiel de l’autoréflexion basée sur le langage pour une optimisation IA efficace.

L'IA déjoue les CAPTCHA : une course aux armements sans fin

2025-07-31
L'IA déjoue les CAPTCHA : une course aux armements sans fin

L'agent IA ChatGPT a récemment contourné le système de détection de bots Turnstile de Cloudflare, accédant à des sites web sans avoir à résoudre de CAPTCHA d'image. Ce n'est pas la première fois qu'une IA réussit à déjouer les CAPTCHA ; il s'agit du dernier développement d'une course aux armements continue. Initialement conçus pour distinguer les humains des machines, les CAPTCHA sont devenus un moyen de ralentir les attaques de bots ou d'en augmenter le coût, donnant même lieu à l'émergence de fermes de résolution humaine de CAPTCHA. La course continue, l'IA et les technologies anti-IA étant engagées dans une lutte perpétuelle.

IA
1 2 3 4 5 7 9 10 11 40 41