Blog
Was Google Cloud Next 2025 für Ingenieure und Konstrukteure bedeutet: Ein technisches Resümee

Auf der Google Cloud Next 2025 beherrschte die KI die Schlagzeilen. Aber für Cloud-Ingenieure waren die wichtigsten Entwicklungen Infrastruktur-Upgrades, Automatisierung der Bereitstellung und neue Tools für die operative Transparenz. Diese Neuerungen erweitern die Möglichkeiten der Teams - und wie schnell sie diese in die Produktion bringen können.
Dieser Artikel und dieses Video fassen die wichtigsten technischen Updates für Plattformteams, Dateningenieure und Entwickler, die GenAI-Workloads einsetzen, zusammen.
[embed]https://youtu.be/kNn4xLImaG4[/embed]
TPUs sind bereit für die Produktion in großem Maßstab
Google hat seine TPU der siebten Generation, Ironwood, vorgestellt, die eine 3600-fache Leistungssteigerung gegenüber der ersten Version und eine bis zu 40-fache Energieeffizienz bietet. Diese TPUs sind jetzt für Kunden verfügbar. Es handelt sich um die gleichen Chips, die auch für das Training von Gemini 2.5 verwendet wurden.
Die wichtigsten Vorteile:
- Höhere Verfügbarkeit in verschiedenen Regionen im Vergleich zu GPUs
- Effizienter für Transformer-Arbeitslasten
- Geringere Betriebskosten pro Trainings- oder Schlussfolgerungsauftrag
Bei der Optimierung im Hinblick auf Skalierbarkeit, Nachhaltigkeit oder Kosteneffizienz könnten TPUs sehr wohl als Standard für GenAI-Training und -Inferenz bewertet werden.
App Hub und Database Center verbessern die Beobachtbarkeit von GCP
Cloud App Hub bietet eine neue Möglichkeit, Cloud-Services zu organisieren. Teams können die Infrastruktur (Cloud Run, GKE, Cloud SQL usw.) mit Tags versehen und in logischen Anwendungen gruppieren, unabhängig von Projekt oder Umgebung.
Database Center bietet einen zentralen Überblick über alle Datenbanken, einschließlich Konfiguration, Engine-Versionen, Backup-Einstellungen und Leistungsstatus.
Diese Tools helfen Plattformteams:
- Anwendungsmanagement projektübergreifend standardisieren
- Erkennen Sie Compliance-Risiken oder Fehlkonfigurationen frühzeitig
- Priorisieren Sie die Modernisierungsarbeit mit besseren Daten
App Hub und Database Center schaffen Klarheit bei der Verwaltung großer, verteilter GCP-Umgebungen.
Firestore unterstützt jetzt MongoDB APIs
Die neue Vorschaufunktion von Firestore ermöglicht es Anwendungen, die MongoDB-API direkt zu nutzen. Entwickler können jetzt ihre bestehenden Mongo-Treiber beibehalten und gleichzeitig von der automatisch skalierenden, serverlosen Architektur von Firestore profitieren.
Zu den Vorteilen gehören:
- Kein manuelles Sharding, Backup-Management oder Wartung
- Einfache Migration von selbst verwaltetem MongoDB
- Ideal für ereignisgesteuerte und Echtzeit-Workloads
Das macht Firestore zu einer praktischen Wahl für Teams, die mobile Backends oder moderne Webanwendungen entwickeln, die zuvor auf Mongo angewiesen waren.
BigQuery fügt Agent-Funktionen und Lakehouse-Unterstützung hinzu
BigQuery entwickelt sich weiter zu einer umfassenden Datenplattform. Auf der Next 2025 wurden mehrere neue Funktionen eingeführt oder allgemein verfügbar gemacht:
- BigQuery Daten-Agent: Erzeugt SQL-Abfragen und Dashboards aus natürlichsprachlichen Eingabeaufforderungen
- Serverlose Spark-Pipelines: Jetzt GA, mit integriertem PySpark und Pipeline-Ausführung in BigQuery
- Integration von Iceberg und Delta Lake: Ermöglicht die Verwendung von offenen Tabellenformaten in BigQuery und BigLake
Zusammengenommen reduzieren diese Upgrades den Aufwand für die Entwicklung von Prototypen, die Erstellung und den Einsatz produktionsfähiger Datenpipelines.
Agent Engine und Agent Development Kit ermöglichen End-to-End-Agenten-Workflows
Zur Unterstützung der Entwicklung von agentenbasierter KI hat Google ein neues System eingeführt:
- Agent Development Kit (SDK): Ein Rahmenwerk für den Aufbau von Multiagentensystemen mit wiederverwendbaren Komponenten und offenen Protokollen (MCP, A2A)
- Agent Engine: Eine vollständig verwaltete Laufzeitumgebung für das Hosting und die Bereitstellung von Agenten
- AgentSpace: Eine Schnittstellenschicht für Geschäftsanwender, die mit KI-Agenten interagieren
Mit diesen Tools können Teams komplexe Agentensysteme mit integrierten Kommunikationsprotokollen, Überwachungs- und Integrationsoptionen sowohl für Gemini als auch für Modelle von Drittanbietern einsetzen.
Bei Xebia nutzen wir diesen Stack, um für unsere Kunden agentenbasierte Plattformen zu entwickeln, die den Kundenservice, den Geschäftsbetrieb und die domänenspezifische Automatisierung unterstützen.
Verfasst von

Martijn van de Grift
Contact