Data Commons MCP Server öffentlich verfügbar: Eine neue Daten-Engine für KI-Anwendungen

2025-09-24
Data Commons MCP Server öffentlich verfügbar: Eine neue Daten-Engine für KI-Anwendungen

Googles Data Commons hat seinen MCP Server veröffentlicht, eine standardisierte Schnittstelle, die es KI-Agenten ermöglicht, direkt auf die umfangreichen öffentlichen Datensätze von Data Commons zuzugreifen. Dies vereinfacht den Datenzugriff, beschleunigt die Entwicklung datenreicher KI-Anwendungen und trägt dazu bei, Halluzinationen großer Sprachmodelle zu reduzieren. Ein erfolgreiches Beispiel ist der ONE Data Agent, der in Zusammenarbeit mit der ONE Campaign entwickelt wurde und den MCP Server nutzt, um schnell Millionen von Gesundheitsfinanzierungsdatenpunkten zu durchsuchen und so die globale Gesundheitsfürsprache zu stärken. Der MCP Server lässt sich nahtlos in verschiedene KI-Entwicklungsworkflows integrieren, wie z. B. das Agent Development Kit (ADK) und Clients wie Gemini CLI von Google Cloud Platform.

Mehr lesen
KI

Gemini 2.5 Flash Image: Googles KI-Durchbruch bei der Bilderzeugung

2025-08-26
Gemini 2.5 Flash Image: Googles KI-Durchbruch bei der Bilderzeugung

Google hat Gemini 2.5 Flash Image vorgestellt, ein hochmodernes Modell zur Bilderzeugung und -bearbeitung. Es ermöglicht die Verschmelzung mehrerer Bilder, die Beibehaltung der Charakterkonsistenz für reichhaltigere Geschichten, präzise Transformationen mithilfe natürlicher Sprache und die Nutzung des Weltwissens von Gemini zur Bilderzeugung und -bearbeitung. Der Preis beträgt 30 US-Dollar pro 1 Million Ausgabe-Tokens (ca. 0,039 US-Dollar pro Bild) und ist über die Gemini-API und Google AI Studio für Entwickler sowie Vertex AI für Unternehmen zugänglich. Der „Build-Modus“ von Google AI Studio wurde ebenfalls erheblich verbessert, um die App-Erstellung zu vereinfachen. Zu den Hauptfunktionen gehören die Charakterkonsistenz, die promptbasierte Bildbearbeitung und das native Weltwissen, wodurch neue Möglichkeiten in der Bilderzeugung und -manipulation eröffnet werden.

Mehr lesen
KI

Gemma 3 270M: Ein kleines, aber leistungsstarkes KI-Modell für kundenspezifische Anwendungen

2025-08-14
Gemma 3 270M: Ein kleines, aber leistungsstarkes KI-Modell für kundenspezifische Anwendungen

Die Gemma-Familie begrüßt ihr neustes Mitglied: Gemma 3 270M, ein kompaktes KI-Modell mit 270 Millionen Parametern, das für das task-spezifische Fine-Tuning entwickelt wurde. Es erbt die fortschrittliche Architektur der Gemma 3-Serie und verfügt über starke Fähigkeiten zum Folgen von Anweisungen und zur Textstrukturierung, während es gleichzeitig bemerkenswert wenig Strom verbraucht – nur 0,75 % Akkuleistung für 25 Konversationen auf einem Pixel 9 Pro SoC. Seine beeindruckenden Fähigkeiten zum Folgen von Anweisungen glänzen in IFEval-Benchmarks und machen fortschrittliche KI für On-Device- und Forschungsanwendungen zugänglicher. Gemma 3 270M eignet sich hervorragend für volumenstarke, klar definierte Aufgaben wie Sentimentanalyse und Entitätsextraktion und ist ideal für Szenarien, die schnelle Iteration und Bereitstellung erfordern. Entwickler können seine geringe Größe für schnelle Fine-Tuning-Experimente nutzen und Flotten spezialisierter Modelle erstellen, um effiziente und kostengünstige Produktionssysteme zu bauen.

Mehr lesen

Gemini Embedding: Die Grundlage für die nächste Generation von KI-Agenten

2025-08-01
Gemini Embedding: Die Grundlage für die nächste Generation von KI-Agenten

Seit seiner Veröffentlichung wurde Googles Gemini Embedding Textmodell von Entwicklern schnell zur Erstellung fortschrittlicher KI-Anwendungen eingesetzt. Über traditionelle Anwendungen wie Klassifizierung und semantische Suche hinaus ist es entscheidend für das "Context Engineering", das KI-Agenten einen vollständigen operationellen Kontext liefert. Unternehmen wie Box, re:cap, Everlaw, Roo Code, Mindlid und Interaction Co. nutzen bereits seine Leistungsfähigkeit, um die Genauigkeit, Geschwindigkeit und Kontextbewusstsein ihrer Produkte zu verbessern. Von der Verbesserung der Finanzdatenanalyse über die Verbesserung der rechtlichen Entdeckung bis hin zur Unterstützung von KI-Assistenten legt die hohe Leistung und die mehrsprachige Unterstützung von Gemini Embedding den Grundstein für die nächste Generation intelligenter Agenten.

Mehr lesen
KI

Google URL Shortener wird eingestellt

2025-07-25
Google URL Shortener wird eingestellt

Google stellt seinen URL-Verkürzungsdienst goo.gl am 25. August 2025 ein. Ab dem 23. August 2024 werden einige goo.gl-Links eine Benachrichtigungsseite anzeigen, die Benutzer vor dem bevorstehenden Ende warnt. Entwickler werden dringend aufgefordert, auf alternative URL-Verkürzungsdienste zu migrieren. Über Google-Apps generierte goo.gl-Links funktionieren weiterhin.

Mehr lesen
Entwicklung URL-Verkürzer

Gemini API erhält Batch-Modus für Hochdurchsatz-Workloads

2025-07-11
Gemini API erhält Batch-Modus für Hochdurchsatz-Workloads

Die Google Gemini API bietet jetzt einen Batch-Modus, einen asynchronen Endpunkt, der ideal für Hochdurchsatz-Aufgaben ist, bei denen Latenz keine kritische Rolle spielt. Reichen Sie große Jobs ein, lassen Sie das System die Verarbeitung übernehmen und rufen Sie die Ergebnisse innerhalb von 24 Stunden ab – mit 50 % Rabatt im Vergleich zu synchronen APIs. Perfekt für vorbereitete Daten, die keine sofortige Antwort benötigen, bietet er Kosteneinsparungen, höheren Durchsatz und vereinfachte API-Aufrufe. Reforged Labs nutzt ihn zur Verarbeitung riesiger Mengen an Videoanzeigen, wodurch die Effizienz deutlich gesteigert und die Kosten gesenkt werden. Beginnen Sie einfach mit dem Google GenAI Python SDK.

Mehr lesen

Google DeepMind veröffentlicht GenAI Processors: Vereinfachung der Entwicklung von LLM-Anwendungen

2025-07-11
Google DeepMind veröffentlicht GenAI Processors: Vereinfachung der Entwicklung von LLM-Anwendungen

Google DeepMind hat GenAI Processors veröffentlicht, eine Open-Source-Python-Bibliothek, die die Entwicklung komplexer Anwendungen für große Sprachmodelle (LLM) vereinfachen soll. Die Bibliothek verwendet eine Processor-Schnittstelle, um verschiedene Datenverarbeitungsschritte zu abstrahieren, und verarbeitet multimodale Eingaben über asynchrone Stream-Verarbeitung, wodurch die gleichzeitige Ausführung für mehr Reaktionsfähigkeit und Effizienz ermöglicht wird. GenAI Processors integriert sich in die Gemini-API und bietet Beispiele für die Erstellung von Echtzeit-Anwendungen wie Live-Transkription und Konversationsagenten.

Mehr lesen
Entwicklung

Gemma 3n: Leistungsstarkes KI-Modell für mobile Geräte veröffentlicht

2025-06-27
Gemma 3n: Leistungsstarkes KI-Modell für mobile Geräte veröffentlicht

Gemma 3n, ein leistungsstarkes multimodales KI-Modell für mobile Geräte, ist jetzt vollständig veröffentlicht! Es basiert auf der innovativen MatFormer-Architektur und unterstützt Bild-, Audio-, Video- und Texteingaben. Es läuft mit extrem geringem Speicherbedarf (2 GB für E2B und 3 GB für E4B). Gemma 3n unterstützt 140 Sprachen für Textverarbeitung und 35 Sprachen für multimodales Verständnis und erreicht einen LMArena-Score von über 1300. Seine effiziente Architektur und die Per-Layer-Embeddings-Technologie ermöglichen herausragende Leistung in verschiedenen Aufgaben und bieten Entwicklern beispiellose Flexibilität. Dies läutet eine neue Ära für mobile KI ein.

Mehr lesen

Google AI Studio: KI-App-Entwicklung mit Gemini 2.5 Pro verbessert

2025-05-21
Google AI Studio: KI-App-Entwicklung mit Gemini 2.5 Pro verbessert

Google AI Studio erhielt ein wichtiges Update mit Integration des Gemini 2.5 Pro Modells für deutlich verbesserte Codegenerierung. Entwickler können schnell KI-basierte Web-Apps mit einfachen Text-, Bild- oder Video-Prompts erstellen und bereitstellen. Die neue Version integriert auch multimodale Modelle wie Imagen, Lyria RealTime und Veo, mit One-Click-Deployment auf Cloud Run und komfortabler Code-Versionsverwaltung. Zusätzlich gibt es native Audio-Unterstützung und ein URL-Kontext-Tool für verbesserte Interaktivität und Informationsbeschaffung.

Mehr lesen
Entwicklung

Google präsentiert Gemma 3n: Ein leichtgewichtiges, multimodales KI-Modell für mobile Geräte

2025-05-20
Google präsentiert Gemma 3n: Ein leichtgewichtiges, multimodales KI-Modell für mobile Geräte

Google hat Gemma 3n veröffentlicht, ein neues, offenes Modell, das auf einer bahnbrechenden Architektur basiert und entwickelt wurde, um leistungsstarke KI-Funktionen auf mobile Geräte zu bringen. Gemma 3n zeichnet sich durch geringeren Speicherverbrauch und schnellere Reaktionszeiten aus und unterstützt multimodales Verständnis (Text, Bild, Audio) sowie starke mehrsprachige Fähigkeiten. Entwickler können über Google AI Studio und Google AI Edge auf eine Vorschau zugreifen und mit dem Aufbau von Anwendungen beginnen, die die Funktionen von Gemma 3n nutzen, darunter Echtzeit-Spracherkennung, Übersetzung und Bildverständnis. Das Modell priorisiert Datenschutz und funktioniert offline.

Mehr lesen

Gemini 2.5 Pro Preview (I/O Edition) vorzeitig veröffentlicht: Verbesserte Codierungsfunktionen

2025-05-06
Gemini 2.5 Pro Preview (I/O Edition) vorzeitig veröffentlicht: Verbesserte Codierungsfunktionen

Google hat eine frühe Vorschau von Gemini 2.5 Pro (I/O Edition) veröffentlicht, die deutlich verbesserte Codierungsfunktionen bietet, insbesondere in der Frontend- und UI-Entwicklung. Es belegt den 1. Platz in der WebDev Arena-Rangliste für die Erstellung ästhetisch ansprechender und funktionaler Webanwendungen. Zu den wichtigsten Verbesserungen gehören die Video-zu-Code-Funktionalität, einfachere Funktionsentwicklung und schnellere Workflows von der Idee zur funktionierenden Anwendung. Entwickler können darauf über die Gemini-API in Google AI Studio oder Vertex AI für Unternehmenskunden zugreifen. Dieses Update behebt auch frühere Fehler und verbessert die Zuverlässigkeit von Funktionsaufrufen.

Mehr lesen
KI

Gemma 3: Spitzentechnologie-KI jetzt auf Ihrem Desktop

2025-04-20
Gemma 3: Spitzentechnologie-KI jetzt auf Ihrem Desktop

Gemma 3, ein hochmodernes Open-Source-KI-Modell, benötigte zunächst High-End-GPUs. Um die Zugänglichkeit zu verbessern, wurden neue Versionen veröffentlicht, die mit Quantisierungs-Aware-Training (QAT) optimiert wurden und den Speicherbedarf drastisch reduzieren, während gleichzeitig eine hohe Qualität beibehalten wird. Dies ermöglicht die Ausführung leistungsstarker Modelle wie Gemma 3 27B auf Consumer-Grade-GPUs wie der NVIDIA RTX 3090. Diese optimierten Modelle sind auf Hugging Face und Kaggle verfügbar und ermöglichen eine einfache Integration in verschiedene Workflows.

Mehr lesen

Google präsentiert Gemini 2.5 Flash: Ein KI-Modell mit steuerbarem Schlussfolgern

2025-04-17
Google präsentiert Gemini 2.5 Flash: Ein KI-Modell mit steuerbarem Schlussfolgern

Google hat Gemini 2.5 Flash veröffentlicht, ein neues großes Sprachmodell mit steuerbaren Schlussfolgerungsfähigkeiten. Aufbauend auf dem beliebten 2.0 Flash verbessert es die Schlussfolgerungsfähigkeit deutlich und priorisiert gleichzeitig Geschwindigkeit und Wirtschaftlichkeit. Entwickler können ein „Denkbudget“ einstellen, um ein Gleichgewicht zwischen Qualität, Kosten und Latenz zu finden. Das Modell passt seinen Denkprozess automatisch an die Komplexität der Eingabeaufforderung an und bietet Modi von keiner Denkphase bis hin zu intensivem Schlussfolgern. Gemini 2.5 Flash schneidet in den Hard Prompts von LMArena hervorragend ab und bietet ein überragendes Preis-Leistungs-Verhältnis, was es zu einem der kostengünstigsten Denkmodelle macht.

Mehr lesen

Agent2Agent (A2A): Ein neues Zeitalter der Interoperabilität von KI-Agenten

2025-04-09
Agent2Agent (A2A): Ein neues Zeitalter der Interoperabilität von KI-Agenten

Google präsentiert Agent2Agent (A2A), ein offenes Protokoll, das eine nahtlose Zusammenarbeit zwischen KI-Agenten ermöglicht, die von verschiedenen Anbietern entwickelt wurden oder unterschiedliche Frameworks verwenden. Unterstützt von über 50 Technologiepartnern und Dienstleistern, ermöglicht A2A einen sicheren Informationsaustausch und koordinierte Aktionen, wodurch die Produktivität gesteigert und die Kosten gesenkt werden. Auf bestehenden Standards aufgebaut, unterstützt A2A verschiedene Modalitäten, priorisiert Sicherheit und bewältigt lang laufende Aufgaben. Anwendungsfälle reichen von der Automatisierung von Rekrutierungsprozessen (z. B. Kandidatenfindung und Terminplanung von Interviews) bis zur Optimierung komplexer Workflows in verschiedenen Unternehmensanwendungen. Seine Open-Source-Natur fördert ein florierendes Ökosystem kollaborativer KI-Agenten.

Mehr lesen

Gemini 2.0 Flash: Googles natives Bildgenerierungsmodell für Entwickler im Experimentierstadium

2025-03-12
Gemini 2.0 Flash: Googles natives Bildgenerierungsmodell für Entwickler im Experimentierstadium

Googles Gemini 2.0 Flash, ein multimodales KI-Modell mit verbesserter Argumentation und natürlichem Sprachverständnis, steht nun Entwicklern zum Experimentieren zur Verfügung. Es generiert Bilder aus Text, erstellt illustrierte Geschichten, ermöglicht die interaktive Bildbearbeitung im Dialog und zeichnet sich durch die präzise Wiedergabe langer Textsequenzen aus. Über Google AI Studio und die Gemini API zugänglich, bietet Gemini 2.0 Flash spannende Möglichkeiten für die Entwicklung von KI-Agenten und visuell ansprechenden Anwendungen.

Mehr lesen
KI