Blog

Aufbau eines skalierbaren Wissensdatenbank-Agenten mit Amazon Bedrock und dem MCP Gateway

Maureen Elsberry

Aktualisiert November 3, 2025
6 Minuten

Unternehmen stehen heute vor einer ständigen Herausforderung: Wissensfragmentierung. Wichtige Informationen - wie Architekturentscheidungen, API-Dokumentation und Runbooks - sind oft befindet sich in verschiedenen Wikis, Code-Repositories und Tools für die Zusammenarbeit. Diese Fragmentierung führt zu geringerer Produktivität, langsamerem Onboarding und wiederholtem Aufwand in den Teams.


In diesem Artikel zeigen wir Ihnen, wie Sie mit Amazon Bedrock Knowledge Bases und dem Model Context Protocol (MCP) Gateway einen skalierbaren, zentralisierten Knowledge Base Agent aufbauen können. Diese Lösung wendet einen Retrieval-Augmented Generation (RAG)-Ansatz an, um sofortige, kontextbezogene Antworten zu liefern und gleichzeitig Sicherheit, Governance und Beobachtbarkeit auf Unternehmensniveau zu gewährleisten.

Unternehmen berichten immer wieder von ähnlichen Problemen im Zusammenhang mit dem Wissenszugang:
Ingenieurteams verbringen 15-20 Stunden pro Woche mit der Suche nach Dokumentationen
Neu eingestellte Mitarbeiter benötigen 4-6 Wochen, um ihre volle Produktivität zu erreichen, weil die Informationen verstreut sind
QA-Teams erstellen bestehende Testfälle neu, weil sie nur schwer zu finden sind
Produktteams haben Schwierigkeiten, sich aneinander zu orientieren, weil die Dokumentation veraltet oder widersprüchlich ist
Diese Ineffizienzen schlagen sich direkt in verzögerten Releases, höheren Einarbeitungskosten und doppelter Arbeit nieder.

Herausforderungen von Unternehmen

  • Ingenieurteams verbringen 15-20 Stunden pro Woche mit der Suche nach Dokumentation
  • Neu eingestellte Mitarbeiter brauchen 4-6 Wochen, um ihre volle Produktivität zu erreichen, da sie nur unzureichend informiert sind.
  • QA-Teams erstellen bestehende Testfälle neu, weil sie schwer zu finden sind
  • Produktteams haben aufgrund veralteter oder widersprüchlicher Dokumentation Schwierigkeiten, sich abzustimmen
  • Diese Ineffizienzen schlagen sich direkt in verzögerten Releases, höheren Einführungskosten und doppelter Arbeit nieder.


Der Knowledge Base Agent schafft eine einheitliche Abfrageschicht, die Unternehmenswissen aufnimmt, Inhalte vektorisiert und kontextbezogene Antworten über eine Standard-API bereitstellt. Die Architektur kombiniert mehrere AWS-Services, um Skalierbarkeit, Zuverlässigkeit und Governance zu erreichen.

Unsere Lösung im Überblick

Wichtige AWS-Komponenten:

Amazon Bedrock Knowledge Bases - Die Grundlage der Lösung, die vollständig verwaltete Vektorspeicher-, Einbettungs- und Abruffunktionen bietet. Bedrock übernimmt das Chunking, die Indizierung und die Vektorisierung und macht die Verwaltung der Infrastruktur überflüssig.

Amazon S3 - Bietet einen dauerhaften, versionierten Speicher für alle Quelldokumente und Artefakte und unterstützt damit Audit- und Compliance-Anwendungsfälle.

AWS Lambda - Ermöglicht Ingestion- und Abfrage-Workflows mit serverloser, ereignisgesteuerter Ausführung für nahtlose Skalierung.

Amazon ECS mit AWS Fargate - Führt verteilte Celery-Arbeiterpools für Masseningestion, langwierige Vektorverarbeitung und parallele Dokumenttransformationen aus.

Amazon ElastiCache für Redis - Verwaltet verteilte Aufgabenkoordination, Caching und Ratenkontrolle zur Optimierung der Abfrageleistung.

Amazon CloudWatch - Bietet End-to-End-Überwachung, Metriken und strukturierte Protokollierung für vollständige Betriebstransparenz.


Standardbasierte Integration mit dem MCP Gateway
Das Model Context Protocol (MCP) Gateway standardisiert den Zugriff auf den Knowledge Base Agent und ermöglicht so eine konsistente Integration über Clients wie IDEs, Chat-Schnittstellen und interne Portale.

Das Gateway bietet mehrere Endpunkte:

  • /jsonrpc für JSON-RPC 2.0-konforme Anfragen
  • /mcp für HTTP-basierte MCP-Protokollkommunikation
  • /tools für die dynamische Werkzeugkatalogsuche
  • /sse für das Streaming von Server-Sent Events


Sicherheit und Governance sind an der API-Grenze integriert, mit zentralisierter Authentifizierung, Autorisierung, Ratenbegrenzung und Audit-Protokollierung.

Best Practices für die Implementierung


Ingestion und Chunking von Dokumenten
Das Chunking spielt eine entscheidende Rolle für die Qualität des Abrufs. Passen Sie Ihre Chunking-Strategie je nach Dokumenttyp an:

  • Strukturierte Dokumente: Verwenden Sie Abschnittsüberschriften als semantische Grenzen. Typische Chunk-Größe: 500-1.000 Token mit 10-20% Überlappung.
  • Code-Dokumentation: Unterteilen Sie den Code nach Funktions- oder Klassengrenzen, um den Kontext zu erhalten. Fügen Sie Docstrings und Inline-Kommentare ein.
  • Runbooks: Halten Sie jede Verfahrensschrittfolge in einem einzigen Chunk, um den betrieblichen Kontext zu erhalten.


Fügen Sie jedem Chunk Metadaten wie Quelle, Autor, Version und Erstellungsdatum hinzu, um die Rückverfolgbarkeit zu gewährleisten.

Retrieval und RAG Orchestration
Hybrid Retrieval - eine Kombination aus Vektorähnlichkeit und Metadatenfilterung - verbessert die Präzision:




Geben Sie in den generierten Antworten immer Quellenangaben an, um die Transparenz und das Vertrauen zu erhöhen.
Sicherheit und Governance
Befolgen Sie das AWS-Modell der Tiefenverteidigung auf allen Ebenen:

  • IAM-Richtlinien: Anwendung des Zugriffs mit den geringsten Rechten; getrennte Rollen für Ingestion, Abfrage und Verwaltungsfunktionen.
  • Verschlüsselung: Aktivieren Sie die Verschlüsselung im Ruhezustand (S3, Bedrock, ElastiCache) und erzwingen Sie TLS 1.2+ bei der Übertragung.
  • Zugriffskontrolle: Verwenden Sie AWS IAM Identity Center für die zentrale Identitätsverwaltung und integrieren Sie es in bestehende SSO-Anbieter.
  • Audit-Protokollierung: Erfassen Sie alle Vorgänge in den CloudWatch-Protokollen zur Überprüfung der Compliance und der Sicherheit.
  • Datenklassifizierung: Kennzeichnen Sie Dokumente nach Empfindlichkeit und setzen Sie richtliniengesteuerte Zugriffskontrollen durch.


Operative Exzellenz

Überwachung: Verwenden Sie CloudWatch Dashboards, um Abfragelatenz, Cache-Trefferraten, Bedrock API-Drosselung und die Tiefe der Worker-Warteschlangen zu verfolgen.
Alerting: Setzen Sie Alarme für Latenz >5s, Fehlerraten >1% und Warteschlangensättigung.
Kostenoptimierung:
Verwenden Sie S3 Intelligent-Tiering für die Dokumentenspeicherung
Batch-Einbettungen für mehr Effizienz
Cache für häufig genutzte Abfragen
Richtig dimensionierte ECS-Aufgaben basierend auf der Arbeitslast

Gemessene Wirkung

Die ersten Anwender dieses Musters haben über messbare Vorteile berichtet:


Reaktionszeit
Reduziert von 12-15 Minuten (manuelle Suche) auf 3-5 Sekunden (automatischer Abruf)

Onboarding-Effizienz
30-40% kürzere Einarbeitungszeit für neue Ingenieure


Wiederverwendung von Dokumentation
20-30% mehr Wiederverwendung von bestehenden Testfällen und Spezifikationen

Operative Effizienz
30-50% weniger doppelte Dokumentation

Rollenübergreifende Anwendungsfälle


Zukünftige Erweiterungen
Die Architektur kann mit neuen AWS-Funktionen weiterentwickelt werden:

Multimodale Unterstützung
Verwenden Sie die multimodalen Modelle von Bedrock, um Diagramme und kommentierte Screenshots zu verarbeiten.
Proaktive Wissensbereitstellung
Verwenden Sie Amazon EventBridge, um relevante Inhalte kontextabhängig anzuzeigen.
Human-in-the-Loop-Validierung
Integrieren Sie Amazon Augmented AI (A2I) für die Expertenvalidierung in regulierten Bereichen.
Regionale Datenresidenz
Stellen Sie mit AWS PrivateLink multiregionale Wissensdatenbanken für die Einhaltung von Vorschriften bereit


Integration mit der KI-nativen Engineering-Plattform von Xebia

Dieses Lösungsmuster ist Teil des Xebia AI Native Engineering Solution | Xebia-Frameworks, das die Einführung von KI-gesteuerten Architekturen in Unternehmen beschleunigt. Es bietet wiederverwendbare Blaupausen für Wissensagenten, Beobachtbarkeit und sichere Modellorchestrierung und ermöglicht es Unternehmen, generative KI in ihrem gesamten Ökosystem verantwortungsvoll einzusetzen.

Fazit


Der Knowledge Base Agent, der mit Amazon Bedrock und dem MCP Gateway entwickelt wurde, zeigt, wie Unternehmen fragmentiertes institutionelles Wissen in ein strategisches, KI-gestütztes Asset verwandeln können. Mit einer serverlosen, standardbasierten Architektur können Unternehmen kontextbezogene Intelligenz sicher teamübergreifend skalieren - ohne Kompromisse bei Governance oder Kontrolle.
Dieses Referenzmuster hilft, die Softwarebereitstellung zu beschleunigen, Redundanzen zu reduzieren und die teamübergreifende Zusammenarbeit zu verbessern - und das alles unter Einhaltung der Best Practices von AWS für operative Exzellenz.
Bereitstellung über AWS Marketplace

Sie können dieses Muster direkt über den [Amazon Bedrock Knowledge Base Agent auf dem AWS Marketplace ] erkunden und bereitstellen (um die Einrichtung und Integration in Ihrer AWS-Umgebung zu beschleunigen).


Zusätzliche Ressourcen
Amazon Bedrock Wissensdatenbanken Dokumentation
AWS Lambda Bewährte Praktiken
Amazon ECS-Aufgaben-Definitionen
Model Context Protokoll Spezifikation
AWS - ein gut durchdachtes Framework

Verfasst von

Maureen Elsberry

Contact

Let’s discuss how we can support your journey.