Blog

Aufbau eines skalierbaren Wissensdatenbank-Agenten mit Amazon Bedrock und dem MCP Gateway

Maureen Elsberry

Aktualisiert Januar 19, 2026
5 Minuten

Unternehmen stehen heute vor einer ständigen Herausforderung: Wissensfragmentierung. Wichtige Informationen - wie Architekturentscheidungen, API-Dokumentation und Runbooks - sind oft befindet sich in verschiedenen Wikis, Code-Repositories und Tools für die Zusammenarbeit. Diese Fragmentierung führt zu geringerer Produktivität, langsamerem Onboarding und wiederholtem Aufwand in den Teams.


In this article, we’ll show how to build a scalable, centralized Knowledge Base Agent using Amazon Bedrock Knowledge Bases and the Model Context Protocol (MCP) Gateway. This solution applies a Retrieval-Augmented Generation (RAG) approach to deliver instant, contextual responses while maintaining enterprise-grade security, governance, and observability.

Herausforderungen von Unternehmen

Organizations consistently report similar pain points around knowledge access:

  • Ingenieurteams verbringen 15-20 Stunden pro Woche mit der Suche nach Dokumentation
  • Neu eingestellte Mitarbeiter brauchen 4-6 Wochen, um ihre volle Produktivität zu erreichen, da sie nur unzureichend informiert sind.
  • QA-Teams erstellen bestehende Testfälle neu, weil sie schwer zu finden sind
  • Produktteams haben aufgrund veralteter oder widersprüchlicher Dokumentation Schwierigkeiten, sich abzustimmen

These inefficiencies translate directly into delayed releases, higher onboarding costs, and duplicated work.


Der Knowledge Base Agent schafft eine einheitliche Abfrageschicht, die Unternehmenswissen aufnimmt, Inhalte vektorisiert und kontextbezogene Antworten über eine Standard-API bereitstellt. Die Architektur kombiniert mehrere AWS-Services, um Skalierbarkeit, Zuverlässigkeit und Governance zu erreichen.

Unsere Lösung im Überblick

Solution at a Glance

The Knowledge Base Agent creates a unified retrieval layer that ingests enterprise knowledge, vectorizes content, and provides contextual answers through a standard API. The architecture combines several AWS services to achieve scalability, reliability, and governance by design.

Key AWS Components

Amazon Bedrock Knowledge Bases - Die Grundlage der Lösung, die vollständig verwaltete Vektorspeicher-, Einbettungs- und Abruffunktionen bietet. Bedrock übernimmt das Chunking, die Indizierung und die Vektorisierung und macht die Verwaltung der Infrastruktur überflüssig.

Amazon S3 - Bietet einen dauerhaften, versionierten Speicher für alle Quelldokumente und Artefakte und unterstützt damit Audit- und Compliance-Anwendungsfälle.

AWS Lambda - Ermöglicht Ingestion- und Abfrage-Workflows mit serverloser, ereignisgesteuerter Ausführung für nahtlose Skalierung.

Amazon ECS mit AWS Fargate - Führt verteilte Celery-Arbeiterpools für Masseningestion, langwierige Vektorverarbeitung und parallele Dokumenttransformationen aus.

Amazon ElastiCache für Redis - Verwaltet verteilte Aufgabenkoordination, Caching und Ratenkontrolle zur Optimierung der Abfrageleistung.

Amazon CloudWatch - Bietet End-to-End-Überwachung, Metriken und strukturierte Protokollierung für vollständige Betriebstransparenz.


Standards-Based Integration with the MCP Gateway

The Model Context Protocol (MCP) Gateway standardizes access to the Knowledge Base Agent, enabling consistent integration across clients such as IDEs, chat interfaces, and internal portals.

Das Gateway bietet mehrere Endpunkte:

  • /jsonrpc für JSON-RPC 2.0-konforme Anfragen
  • /mcp für HTTP-basierte MCP-Protokollkommunikation
  • /tools für die dynamische Werkzeugkatalogsuche
  • /sse für das Streaming von Server-Sent Events


Sicherheit und Governance sind an der API-Grenze integriert, mit zentralisierter Authentifizierung, Autorisierung, Ratenbegrenzung und Audit-Protokollierung.

Best Practices für die Implementierung

Document Ingestion and Chunking

Chunking plays a crucial role in retrieval quality. Tailor your chunking strategy based on document type: 

  • Strukturierte Dokumente: Verwenden Sie Abschnittsüberschriften als semantische Grenzen. Typische Chunk-Größe: 500-1.000 Token mit 10-20% Überlappung.
  • Code-Dokumentation: Unterteilen Sie den Code nach Funktions- oder Klassengrenzen, um den Kontext zu erhalten. Fügen Sie Docstrings und Inline-Kommentare ein.
  • Runbooks: Halten Sie jede Verfahrensschrittfolge in einem einzigen Chunk, um den betrieblichen Kontext zu erhalten.

Attach metadata such as document source, author, version, and creation date to every chunk for traceability.
 

Retrieval and RAG Orchestration

Hybrid retrieval - combining vector similarity with metadata filtering - improves precision



Always include source citations in generated responses to enhance transparency and trust.

Security and Governance

Follow AWS’s defense-in-depth model across all layers:

  • IAM-Richtlinien: Anwendung des Zugriffs mit den geringsten Rechten; getrennte Rollen für Ingestion, Abfrage und Verwaltungsfunktionen.
  • Verschlüsselung: Aktivieren Sie die Verschlüsselung im Ruhezustand (S3, Bedrock, ElastiCache) und erzwingen Sie TLS 1.2+ bei der Übertragung.
  • Zugriffskontrolle: Verwenden Sie AWS IAM Identity Center für die zentrale Identitätsverwaltung und integrieren Sie es in bestehende SSO-Anbieter.
  • Audit-Protokollierung: Erfassen Sie alle Vorgänge in den CloudWatch-Protokollen zur Überprüfung der Compliance und der Sicherheit.
  • Datenklassifizierung: Kennzeichnen Sie Dokumente nach Empfindlichkeit und setzen Sie richtliniengesteuerte Zugriffskontrollen durch.


Operational Excellence

  • Monitoring: Use CloudWatch dashboards to track query latency, cache hit rates, Bedrock API throttling, and worker queue depth.
  • Alerting: Set alarms for latency >5s, error rates >1%, and queue saturation.
  • Cost Optimization:
    • Use S3 Intelligent-Tiering for document storage
    • Batch embeddings for efficiency
    • Cache frequently accessed queries
    • Right-size ECS tasks based on workload

Gemessene Wirkung

Early adopters of this pattern have reported measurable benefits:


Example Use Cases Across Roles


Future Enhancements

The architecture can evolve with new AWS capabilities:


Integration with Xebia's AI Native Engineering Platform


This solution pattern is part of Xebia AI Native Engineering Solution | Xebia framework, which accelerates enterprise adoption of AI-driven architectures. It provides reusable blueprints for knowledge agents, observability, and secure model orchestration - enabling organizations to operationalize generative AI responsibly across their ecosystem.

Fazit


The Knowledge Base Agent built with Amazon Bedrock and the MCP Gateway demonstrates how enterprises can transform fragmented institutional knowledge into a strategic, AI-augmented asset. With a serverless, standards-based architecture, organizations can securely scale contextual intelligence across teams - without compromising governance or control.

This reference pattern helps accelerate software delivery, reduce redundancy, and improve cross-team collaboration - all while adhering to AWS’s best practices for operational excellence.
 

Deploy via AWS Marketplace

You can explore and deploy this pattern directly from the [Amazon Bedrock Knowledge Base Agent on AWS Marketplace (to accelerate setup and integration within your AWS environment.


Additional Resources
Amazon Bedrock Knowledge Bases Documentation
AWS Lambda Best Practices
Amazon ECS Task Definitions
Model Context Protocol Specification
AWS Well-Architected Framework

Verfasst von

Maureen Elsberry

Contact

Let’s discuss how we can support your journey.