Cloud Run Jobs désormais avec GPU : Libérer la puissance du traitement par lots

2025-06-04
Cloud Run Jobs désormais avec GPU : Libérer la puissance du traitement par lots

Google Cloud Run propose désormais la prise en charge des GPU pour ses jobs, ouvrant de nouvelles possibilités pour le traitement par lots et les tâches asynchrones. Cela permet un ajustement fin efficace des modèles, l'inférence par lots d'IA à grande échelle et le traitement de médias à haut débit. Des entreprises comme vivo, Wayfair et Midjourney ont adopté la solution et ont signalé des économies de coûts et des améliorations de performances significatives. Le service permet aux développeurs de se concentrer sur l'innovation, laissant la gestion de l'infrastructure à Google.

Lire plus
Développement Traitement par lots

Text-to-SQL de Gemini : défis et solutions

2025-05-16
Text-to-SQL de Gemini : défis et solutions

Si la fonctionnalité texte-vers-SQL de Gemini de Google est impressionnante au premier abord, les applications réelles révèlent des défis importants. Premièrement, le modèle doit comprendre le contexte spécifique à l'entreprise, notamment le schéma de la base de données, la signification des données et la logique métier. Un simple réglage fin du modèle a du mal à gérer les variations des bases de données et des données. Deuxièmement, l'ambiguïté du langage naturel rend difficile pour le modèle de comprendre précisément l'intention de l'utilisateur, ce qui nécessite des ajustements en fonction du contexte, du type d'utilisateur et des capacités du modèle. Enfin, les différences entre les dialectes SQL représentent un défi pour la génération d'un code SQL précis. Google Cloud relève ces défis grâce à la récupération intelligente des données, aux couches sémantiques, à la désambiguation LLM, à la validation de l'auto-cohérence du modèle et à d'autres techniques, améliorant ainsi continuellement la précision et la fiabilité du texte-vers-SQL de Gemini.

Lire plus

Rapid Storage : Stockage à latence submilliseconde basé sur Colossus

2025-04-10
Rapid Storage : Stockage à latence submilliseconde basé sur Colossus

Le Rapid Storage de Google tire parti de l'architecture Colossus pour atteindre un débit incroyable de 20 millions de requêtes par seconde, offrant une latence submilliseconde pour les lectures et les écritures, particulièrement avantageux pour les applications d'IA/ML. Utilisant le streaming gRPC et un protocole avec état, Rapid Storage améliore considérablement l'efficacité d'accès aux données, empêchant la latence de stockage de bloquer les accélérateurs lors du pré-entraînement des modèles, par exemple. Sa tolérance aux pannes robuste garantit la cohérence et la continuité des données même en cas de panne client ou serveur, permettant des ajouts illimités et la reprise des opérations interrompues. Cela en fait une solution puissante pour le traitement de données à grande échelle.

Lire plus
Technologie

Google Cloud dévoile d'importantes mises à jour logicielles pour AI Hypercomputer

2025-04-10
Google Cloud dévoile d'importantes mises à jour logicielles pour AI Hypercomputer

Google Cloud a annoncé des mises à jour importantes du logiciel de son AI Hypercomputer, améliorant considérablement l'efficacité de l'entraînement et de l'inférence des modèles d'IA. Pathways on Cloud, un runtime distribué, est désormais disponible sur Google Cloud, permettant un entraînement élastique et une inférence à haut débit. Cluster Director ajoute la prise en charge de Slurm et des fonctionnalités d'observabilité à 360° pour des performances et une fiabilité élevées. GKE intègre Inference Gateway et Inference Quickstart, réduisant considérablement les coûts d'inférence et augmentant le débit. vLLM prend désormais en charge les TPU, accélérant encore l'inférence. Dynamic Workload Scheduler étend la prise en charge des accélérateurs, optimisant l'utilisation des ressources. Ces mises à jour permettent aux développeurs de créer et de déployer des applications d'IA plus rapidement et plus économiquement.

Lire plus

Le débogueur de voyage dans le temps de Microsoft : Plongez au cœur de TTD

2025-03-13
Le débogueur de voyage dans le temps de Microsoft : Plongez au cœur de TTD

Le Time Travel Debugging (TTD) de Microsoft est un puissant framework d'enregistrement et de relecture en mode utilisateur qui permet aux développeurs de déboguer des programmes comme s'ils naviguaient sur une ligne temporelle. Il injecte une DLL pour capturer tous les états de l'exécution d'un processus, les stockant dans un fichier .trace. Le cœur du système est le moteur d'exécution Nirvana, qui émule les instructions CPU pour un contrôle granulaire. Même avec des défis tels que les opérations à virgule flottante, les modèles de mémoire, l'émulation des périphériques et le code auto-modifiable, Nirvana utilise la traduction binaire dynamique et les techniques de mise en cache du code pour l'efficacité et la précision. L'article décrit un bogue rencontré lors du débogage d'un fichier PE 32 bits obfusqué à l'aide de TTD, soulignant l'avantage d'utiliser le propre fichier de trace de TTD pour le débogage.

Lire plus
Développement Relecture de code

Obfuscation de code Go : une approche de machine d’état pour le décryptage dynamique des données

2025-03-06
Obfuscation de code Go : une approche de machine d’état pour le décryptage dynamique des données

Ce code Go implémente une technique d’obfuscation de code avancée utilisant une machine d’état et des index aléatoires pour le décryptage dynamique des données. Les données sont divisées aléatoirement en blocs, et une séquence d’index aléatoires contrôle l’ordre de décryptage. Une clé de décryptage dépendante de l’état est utilisée pour décrypter chaque bloc séquentiellement, reconstruisant finalement les données d’origine. Cette approche augmente considérablement la difficulté de l’ingénierie inverse, protégeant efficacement la sécurité du code.

Lire plus
Développement obfuscation de code

Des pirates russes exploitent la fonctionnalité « Appareils liés » de Signal pour des attaques de phishing

2025-02-19
Des pirates russes exploitent la fonctionnalité « Appareils liés » de Signal pour des attaques de phishing

Des pirates informatiques alignés sur la Russie exploitent la fonctionnalité « Appareils liés » de Signal pour mener des attaques de phishing à grande échelle. Les attaquants créent des codes QR malveillants déguisés en ressources Signal légitimes, telles que des invitations à des groupes ou des alertes de sécurité. Le scan de ces codes lie les comptes des victimes à des instances Signal contrôlées par les attaquants, permettant une écoute clandestine en temps réel des conversations. Cette technique, utilisée par des groupes tels qu'APT44, cible même des militaires ukrainiens. La nature furtive et le manque de défenses efficaces font de cette attaque un risque élevé et une signature faible qui peut passer inaperçue pendant de longues périodes.

Lire plus

Nouvelle syntaxe de requête en pipeline de BigQuery : plus facile à lire, à écrire et à maintenir

2025-02-13
Nouvelle syntaxe de requête en pipeline de BigQuery : plus facile à lire, à écrire et à maintenir

Google BigQuery introduit une nouvelle syntaxe de requête en pipeline qui simplifie la rédaction et la maintenance des requêtes SQL avec une structure linéaire. Cette syntaxe permet d'appliquer des opérateurs tels que SELECT, agrégation, GROUP BY, JOIN et WHERE dans n'importe quel ordre et autant de fois que nécessaire, ce qui donne une logique de requête plus claire et plus compréhensible. Elle résout les problèmes de la syntaxe SQL standard, tels que l'ordre strict des clauses, la nécessité de CTE ou de sous-requêtes imbriquées pour les requêtes complexes, et introduit de nouveaux opérateurs de pipeline tels que EXTEND, SET, DROP et RENAME pour une plus grande flexibilité dans la manipulation des données.

Lire plus
Développement Syntaxe en pipeline

Décryptage de ScatterBrain : Plongez au cœur de l'ofuscateur sophistiqué de Shadowpad

2025-02-02
Décryptage de ScatterBrain : Plongez au cœur de l'ofuscateur sophistiqué de Shadowpad

POISONPLUG.SHADOW (Shadowpad), une famille de logiciels malveillants identifiée par Kaspersky, utilise un compilateur d'obfuscation personnalisé, ScatterBrain, pour échapper à la détection. Le groupe d'intelligence sur les menaces de Google (GTIG) et l'équipe FLARE ont collaboré pour effectuer une rétro-ingénierie de ScatterBrain, créant un désobfuscateur statique indépendant. Ce désobfuscateur gère les trois modes de protection de ScatterBrain (Sélectif, Complet, Complet "sans en-tête"), neutralisant son obfuscation du graphe de flux de contrôle, ses mutations d'instructions et sa protection de la table d'importation. Cette recherche améliore considérablement la capacité d'analyser et de contrer les logiciels malveillants sophistiqués comme Shadowpad.

Lire plus
Technologie Désobfuscation

gRPC vs REST : Choisir le bon modèle de conception d'API

2025-01-23
gRPC vs REST : Choisir le bon modèle de conception d'API

Cet article explore gRPC et REST, deux modèles principaux de conception d'API, et le rôle d'OpenAPI. gRPC, basé sur le modèle RPC, masque les détails des données, tandis que REST, basé sur HTTP, est orienté ressources. De nombreuses API combinent intelligemment les forces des deux, en utilisant une approche orientée entité, mais implémentée avec gRPC. L'article compare trois manières d'utiliser HTTP pour les API : REST, gRPC et OpenAPI, en soulignant leurs avantages et inconvénients, et suggère finalement de choisir la meilleure approche en fonction des besoins spécifiques. gRPC offre des performances supérieures, mais nécessite un logiciel spécial ; OpenAPI est flexible, mais complexe à concevoir ; REST est simple et direct, mais moins utilisé. Le choix implique de peser les exigences du projet, la pile technologique de l'équipe et la maintenabilité.

Lire plus
Développement Conception d'API