Cloud Run Jobs jetzt mit GPUs: Entfesseln Sie die Power der Batch-Verarbeitung

2025-06-04
Cloud Run Jobs jetzt mit GPUs: Entfesseln Sie die Power der Batch-Verarbeitung

Google Cloud Run bietet jetzt GPU-Unterstützung für seine Jobs und eröffnet damit neue Möglichkeiten für die Batch-Verarbeitung und asynchrone Aufgaben. Dies ermöglicht effizientes Feintuning von Modellen, groß angelegte Batch-AI-Inferenz und Hochdurchsatz-Medienverarbeitung. Frühzeitige Anwender wie vivo, Wayfair und Midjourney haben erhebliche Kosteneinsparungen und Leistungsverbesserungen gemeldet. Der Dienst ermöglicht es Entwicklern, sich auf Innovation zu konzentrieren und die Infrastrukturverwaltung Google zu überlassen.

Mehr lesen
Entwicklung

Geminis Text-to-SQL: Herausforderungen und Lösungen

2025-05-16
Geminis Text-to-SQL: Herausforderungen und Lösungen

Obwohl die Text-to-SQL-Funktionalität von Googles Gemini zunächst beeindruckend ist, zeigen sich in der Praxis erhebliche Herausforderungen. Erstens muss das Modell den geschäftsspezifischen Kontext verstehen, einschließlich des Datenbankschemas, der Datenbedeutung und der Geschäftslogik. Ein einfaches Feintuning des Modells hat Schwierigkeiten, die Variationen in Datenbanken und Daten zu bewältigen. Zweitens erschwert die Mehrdeutigkeit der natürlichen Sprache es dem Modell, die Absicht des Benutzers genau zu verstehen, was Anpassungen basierend auf Kontext, Benutzertyp und Modellfähigkeiten erfordert. Schließlich stellen die Unterschiede zwischen SQL-Dialekten eine Herausforderung für die Generierung präzisen SQL-Codes dar. Google Cloud begegnet diesen Herausforderungen durch intelligente Datenabfrage, semantische Schichten, LLM-Disambiguierung, Validierung der Modell-Selbstkonsistenz und andere Techniken, wodurch die Genauigkeit und Zuverlässigkeit von Geminis Text-to-SQL kontinuierlich verbessert wird.

Mehr lesen
KI

Rapid Storage: Submillisekunden-Latenz-Speicher basierend auf Colossus

2025-04-10
Rapid Storage: Submillisekunden-Latenz-Speicher basierend auf Colossus

Googles Rapid Storage nutzt die Colossus-Architektur, um einen unglaublichen Durchsatz von 20 Millionen Anfragen pro Sekunde zu erreichen und bietet eine Submillisekunden-Latenz für Lese- und Schreibvorgänge, was besonders vorteilhaft für KI/ML-Anwendungen ist. Mittels gRPC-Streaming und einem zustandsbehafteten Protokoll verbessert Rapid Storage die Datenzugriffseffizienz drastisch und verhindert, dass die Speicherlatenz beispielsweise beim Vortraining von Modellen die Beschleuniger blockiert. Seine robuste Fehlertoleranz gewährleistet Datenkonsistenz und -kontinuität selbst bei Client- oder Serverausfällen, ermöglicht unbegrenzte Anhänge und die Wiederaufnahme unterbrochener Vorgänge. Dies macht es zu einer leistungsstarken Lösung für die Verarbeitung großer Datenmengen.

Mehr lesen
Technologie

Google Cloud kündigt wichtige Software-Updates für AI Hypercomputer an

2025-04-10
Google Cloud kündigt wichtige Software-Updates für AI Hypercomputer an

Google Cloud hat bedeutende Software-Updates für seinen AI Hypercomputer angekündigt, die die Effizienz beim Training und der Inferenz von KI-Modellen deutlich verbessern. Pathways on Cloud, eine verteilte Laufzeitumgebung, ist jetzt auf Google Cloud verfügbar und ermöglicht elastisches Training und Hochdurchsatz-Inferenz. Cluster Director erweitert die Unterstützung um Slurm und 360°-Beobachtbarkeitsfunktionen für hohe Leistung und Zuverlässigkeit. GKE integriert Inference Gateway und Inference Quickstart, wodurch die Inferenzkosten deutlich gesenkt und der Durchsatz erhöht werden. vLLM unterstützt jetzt TPUs, was die Inferenzgeschwindigkeit weiter beschleunigt. Dynamic Workload Scheduler erweitert die Unterstützung für Beschleuniger und optimiert die Ressourcenauslastung. Diese Updates ermöglichen es Entwicklern, KI-Anwendungen schneller und kostengünstiger zu erstellen und bereitzustellen.

Mehr lesen
Technologie

Microsofts Zeitreise-Debugger: Ein tiefer Einblick in TTD

2025-03-13
Microsofts Zeitreise-Debugger: Ein tiefer Einblick in TTD

Microsofts Time Travel Debugging (TTD) ist ein leistungsstarkes Record-and-Replay-Framework im Benutzermodus, das es Entwicklern ermöglicht, Programme zu debuggen, als würden sie durch eine Zeitleiste navigieren. Es injiziert eine DLL, um jeden Zustand der Ausführung eines Prozesses zu erfassen und in einer .trace-Datei zu speichern. Der Kern ist die Nirvana-Laufzeitumgebung, die CPU-Instruktionen für eine feinkörnige Steuerung emuliert. Selbst bei Herausforderungen wie Gleitkommaoperationen, Speichermodellen, Peripherieemulation und selbstmodifizierendem Code verwendet Nirvana dynamische Binärtranslation und Code-Caching-Techniken für Effizienz und Genauigkeit. Der Artikel beschreibt einen Fehler, der beim Debuggen einer obfuszierten 32-Bit-PE-Datei mit TTD aufgetreten ist, und hebt den Vorteil hervor, die TTD-Trace-Datei selbst zum Debuggen zu verwenden.

Mehr lesen
Entwicklung Code-Wiedergabe

Go-Code-Verschleierung: Ein Zustandsautomaten-Ansatz zur dynamischen Datenentschlüsselung

2025-03-06
Go-Code-Verschleierung: Ein Zustandsautomaten-Ansatz zur dynamischen Datenentschlüsselung

Dieser Go-Code implementiert eine fortschrittliche Code-Verschleierungstechnik mit einem Zustandsautomaten und zufälligen Indizes für die dynamische Datenentschlüsselung. Die Daten werden zufällig in Blöcke aufgeteilt, und eine zufällige Indexsequenz steuert die Entschlüsselungsreihenfolge. Ein zustandsabhängiger Entschlüsselungsschlüssel wird verwendet, um jeden Block nacheinander zu entschlüsseln und schließlich die ursprünglichen Daten zu rekonstruieren. Dieser Ansatz erhöht die Schwierigkeit des Reverse Engineering erheblich und schützt effektiv die Code-Sicherheit.

Mehr lesen
Entwicklung Code-Verschleierung

Russische Hacker nutzen Signals „Verknüpfte Geräte“-Funktion für Phishing-Angriffe

2025-02-19
Russische Hacker nutzen Signals „Verknüpfte Geräte“-Funktion für Phishing-Angriffe

Russisch unterstützte Hacker nutzen die „Verknüpfte Geräte“-Funktion von Signal für groß angelegte Phishing-Angriffe. Angreifer erstellen bösartige QR-Codes, die als legitime Signal-Ressourcen wie Gruppen-Einladungen oder Sicherheitswarnungen getarnt sind. Das Scannen dieser Codes verknüpft die Konten der Opfer mit von Angreifern kontrollierten Signal-Instanzen und ermöglicht das heimliche Abhören von Gesprächen in Echtzeit. Diese Technik, die von Gruppen wie APT44 eingesetzt wird, zielt sogar auf ukrainische Militärangehörige ab. Die heimliche Natur und der Mangel an effektiven Abwehrmaßnahmen machen dies zu einem hochriskanten Angriff mit geringer Signatur, der über längere Zeiträume unentdeckt bleiben kann.

Mehr lesen

BigQuerys neue Pipe-Abfragesyntax: leichter zu lesen, zu schreiben und zu warten

2025-02-13
BigQuerys neue Pipe-Abfragesyntax: leichter zu lesen, zu schreiben und zu warten

Google BigQuery führt eine neue Pipe-Abfragesyntax ein, die das Schreiben und die Wartung von SQL-Abfragen mit einer linearen Struktur vereinfacht. Diese Syntax ermöglicht die Anwendung von Operatoren wie SELECT, Aggregation, GROUP BY, JOIN und WHERE in beliebiger Reihenfolge und beliebig oft, was zu einer klareren und verständlicheren Abfragelogik führt. Sie behebt Probleme der Standard-SQL-Syntax, wie die strikte Reihenfolge von Klauseln, die Notwendigkeit von CTEs oder verschachtelten Unterabfragen für komplexe Abfragen, und führt neue Pipe-Operatoren wie EXTEND, SET, DROP und RENAME für mehr Flexibilität bei der Datenmanipulation ein.

Mehr lesen
Entwicklung Pipe-Syntax

Enträtselung von ScatterBrain: Ein tiefer Einblick in den ausgeklügelten Obfuskator von Shadowpad

2025-02-02
Enträtselung von ScatterBrain: Ein tiefer Einblick in den ausgeklügelten Obfuskator von Shadowpad

POISONPLUG.SHADOW (Shadowpad), eine von Kaspersky identifizierte Malware-Familie, verwendet einen benutzerdefinierten Obfuskationscompiler, ScatterBrain, um der Erkennung zu entgehen. Das Google Threat Intelligence Group (GTIG) und das FLARE-Team haben gemeinsam an der Reverse-Engineering von ScatterBrain gearbeitet und einen eigenständigen statischen Deobfuscator erstellt. Dieser Deobfuscator bewältigt die drei Schutzmodi von ScatterBrain (Selektiv, Vollständig, Vollständig "ohne Header"), neutralisiert die Obfuskation des Kontrollflussgraphen, die Befehlsmutationen und den Schutz der Importtabelle. Diese Forschung verbessert die Fähigkeit, ausgeklügelte Malware wie Shadowpad zu analysieren und zu bekämpfen.

Mehr lesen
Technologie

gRPC vs REST: Das richtige API-Design-Modell auswählen

2025-01-23
gRPC vs REST: Das richtige API-Design-Modell auswählen

Dieser Artikel befasst sich mit gRPC und REST, zwei Hauptmodellen für das API-Design, und der Rolle von OpenAPI. gRPC, basierend auf dem RPC-Modell, verbirgt Datendetails, während REST, basierend auf HTTP, ressourcenorientiert ist. Viele APIs kombinieren clever die Stärken beider, indem sie einen entity-orientierten Ansatz verwenden, der aber mit gRPC implementiert wird. Der Artikel vergleicht drei Möglichkeiten, HTTP für APIs zu verwenden: REST, gRPC und OpenAPI, beschreibt deren Vor- und Nachteile und schlägt letztendlich vor, den besten Ansatz basierend auf den spezifischen Anforderungen zu wählen. gRPC bietet eine höhere Leistung, benötigt aber spezielle Software; OpenAPI ist flexibel, aber komplex zu entwerfen; REST ist einfach und unkompliziert, aber weniger verbreitet. Die Wahl beinhaltet das Abwägen von Projektanforderungen, der Technologie-Stack des Teams und der Wartbarkeit.

Mehr lesen
Entwicklung API-Design