Artikel

Die wirtschaftlichen und strategischen Auswirkungen der agentenbasierten KI: Von der Effizienz zur strukturellen Transformation

Die Einbettung von Intelligenz, Autonomie und Geschwindigkeit in die Struktur der Operationen selbst.

Oktober 10, 2025
10 Minuten

Künstliche Intelligenz tritt in eine neue Ära ein, da sich auch der allgemeine Diskurs mit der Verbesserung der Technologie langsam verschiebt. Es geht nicht mehr nur um Tools, die Inhalte zusammenfassen, Alptraumbilder erzeugen oder passive Chatbots. Die agentenbasierte KI ist da, Agenten, die wahrnehmen, denken, handeln und autonom lernen können, um komplexe Ziele zu erreichen. Dies ist kein fernes Zukunftskonzept. Wie in den jüngsten Branchendiskussionen hervorgehoben wurde, bauen große globale Unternehmen bereits systematisch die Plattformen auf, um diese Leistung nutzbar zu machen und über einzelne Anwendungsfälle hinaus zu einer grundlegenden Transformation überzugehen.

In einer Diskussion, die kürzlich während eines Roundtables für Führungskräfte stattfand, betonte ein Diskussionsteilnehmer, dass die erste Frage an jedes Unternehmen, das einen Agenten aufbaut, lauten sollte: "Gibt es einen Bewertungsrahmen?" Ohne eine quantitative Methode zur Messung von Leistung und Sicherheit laufen Agentensysteme Gefahr, zu unkontrollierbaren Blackboxen zu werden.

Dieser Wandel legt jedoch eine kritische Schwachstelle in den Unternehmen offen. Die Herausforderung liegt nicht mehr nur auf der technischen Ebene, wo es vielleicht einfacher ist, sie anzugehen und zu lösen, sondern sie ist zutiefst menschlich und organisatorisch. Ein reibungsloser und funktionierender Übergang zu agentenbasierter KI erfordert einen grundlegenden Wandel in der Belegschaft und bei den Fähigkeiten, und viele Unternehmen könnten sich als gefährlich unvorbereitet erweisen.

Zwei Welten kollidieren

Der Kern der Herausforderung liegt in der inhärenten Natur der agentenbasierten KI. Seit Jahrzehnten scheint die Diskussion über KI in zwei sehr unterschiedlichen und parallelen Paradigmen geführt worden zu sein:

  1. Die deterministische Welt der Softwareentwicklung: Diese Welt, die auf den bewährten DevOps-Praktiken aufbaut, basiert auf der guten alten Vorhersagbarkeit. Eingabe X führt unweigerlich zu Ausgabe Y. Softwareingenieure sind Meister auf diesem Gebiet und bauen robuste, sichere und skalierbare Systeme mit klaren Ursache-Wirkungs-Beziehungen.
  2. Die probabilistische Welt der Datenwissenschaft: Die Welt der MLOps ist ein Bereich, in dem Nicht-Determinismus akzeptiert wird. Datenwissenschaftler wissen, dass Modelle auf der Grundlage von Statistiken und Wahrscheinlichkeiten funktionieren. Sie können mit Unsicherheiten umgehen und konzentrieren sich auf Bewertungsmetriken und Vertrauenswerte.

Die agentenbasierte KI befindet sich an der unerforschten Schnittstelle zwischen diesen beiden Welten. Ein KI-Agent muss die nicht-deterministischen Schlussfolgerungen eines großen Sprachmodells (Bereich der Datenwissenschaft) nutzen, um mit Hilfe von Tools und APIs (Bereich der Softwareentwicklung) deterministische, sichere Aktionen durchzuführen.

Dadurch entsteht eine kritische Qualifikationslücke. Die derzeitigen Ansätze scheinen zu scheitern, weil Softwareingenieure überlastet sind. Wenn sie mit der Entwicklung agentenbasierter Systeme beauftragt werden, haben Softwareingenieure oft Probleme mit der"KI-Sicherheitsmentalität". Sie erwarten, dass Eingabeaufforderungen und Tools vorhersehbar funktionieren, und können von der inhärenten Unvorhersehbarkeit und den neuartigen Sicherheitsrisiken von LLMs überrumpelt werden.

Auf der anderen Seite sind Datenwissenschaftler in einer perfekten Position, um den Nicht-Determinismus eines Modells zu verstehen, aber ihnen fehlt oft die technische Strenge für API-Sicherheit, Authentifizierung und den Aufbau produktionsreifer, sicherer Pipelines. Ihr Fokus liegt auf dem Verhalten des Modells und nicht auf der Sicherheit des gesamten Systems, das die Aktionen ausführt.

Aus Sicht von Google Cloud besteht die Lösung darin, in eine neue Art von Plattform zu investieren, die die Strenge von DevOps mit der Flexibilität von MLOps verbindet. Dies beinhaltet die Entwicklung von Tools für eine robuste Bewertung, Red Teaming und mehrschichtige Sicherheit, was man als "Schweizer Käse-Modell" der Verteidigung bezeichnen kann. Google investiert auch in die Demokratisierung des Zugangs durch No-Code/Low-Code-Agenten und erforscht futuristische Fähigkeiten wie den "Computer Use Case", bei dem Agenten autonom jede Software-Schnittstelle bedienen können, von SAP bis hin zu alten Mainframes, was ihr Anwendungspotenzial dramatisch erweitert.

Die neuen KI-Hybridrollen

Wenn Unternehmen diese Kluft überbrücken wollen, muss eine neue Klasse von hybriden Rollen entstehen. Unternehmen brauchen Fachleute, die beide Sprachen sprechen: die der Softwareentwicklung und auch der probabilistischen KI.

Wir sehen die ersten Umrisse dieser kritischen Positionen:

  1. Produktmanager: Das sind Personen, die Geschäftsprobleme in agentenbasierte Arbeitsabläufe übersetzen können und sowohl die Fähigkeiten als auch die zugrunde liegenden Grenzen der Technologie verstehen. Ihre Aufgabe ist es, zu definieren, was der Agent tun soll und, was vielleicht noch wichtiger ist, was er NICHT tun soll.
  1. Evaluatoren & Red Teamers: Die wichtigste Funktion, die von Experten hervorgehoben wird, ist ein rigoroser Evaluierungsrahmen. Dies geht über einfache Unit-Tests hinaus. Dazu gehören kontinuierliche, automatisierte Tests und proaktives "Red Teaming", d.h. der aktive Versuch, den Agenten zu brechen, seine Anweisungen zu überlisten oder die unbeabsichtigte Verwendung von Tools auszulösen. Bei dieser Aufgabe geht es darum, das Verhalten des Agenten in Tausenden von Szenarien - und nicht nur in einer Handvoll - unter Stress zu testen, um zu sehen, was in den kritischen und grenzwertigen Situationen passiert.
  1. Sicherheitsingenieure: vielleicht die wahre Quintessenz einer hybriden Rolle. Diese Ingenieure beherrschen die Sicherheit und die Infrastruktur eines Softwareingenieurs, kombiniert mit dem Verständnis eines Datenwissenschaftlers für das Verhalten von Modellen. Sie entwerfen das "Schweizer Käse" -Modell der mehrschichtigen Sicherheit, bei dem es darum geht, Leitplanken für Eingaben und Ausgaben zu implementieren, die Authentifizierung von Tools zu validieren und sicherzustellen, dass der Mensch in der Schleife dort, wo es nötig ist, Schutzmaßnahmen ergreift.

Lassen Sie uns die Dinge klarstellen. Hier geht es nicht darum, eine Handvoll Genies einzustellen oder unbekannte Fähigkeiten in verzweifelten Stellenausschreibungen zu finden. Stattdessen geht es darum, bestehende Teams zu schulen, ihre Fähigkeiten anzupassen und diese neuen Karrierewege zu definieren, um eine ausgewogene, multidisziplinäre KI-Belegschaft zu schaffen.

Aus der Sicht von Google Cloud ist das wahre Unterscheidungsmerkmal nicht einfach, wie ausgereift die Technologie ist, sondern wie schnell Unternehmen ihre Belegschaft umorientieren können. Deshalb betont Google, dass Bewertung und Governance zu alltäglichen Fähigkeiten werden müssen, nicht zu Nischenpraktiken. Ein Software-Ingenieur, der sich mit KI-Sicherheit auskennt, oder ein Datenwissenschaftler, der die Produktionssicherheit beherrscht, ist keine Ausnahme mehr, sondern die neue Basis eines KI-bereiten Unternehmens. Zu diesem Zweck hat Google Cloud in Trainingsprogramme und Frameworks investiert, um die Konvergenz dieser Fähigkeiten in Unternehmen zu beschleunigen.

Ein wahrhaft menschlicher Engpass

Die überraschendste Erkenntnis aus den Panels der Branche ist, dass der größte Engpass nicht auf technologischer Ebene liegt. Das Innovationstempo von Google, OpenAI, Microsoft und anderen ist atemberaubend. Die größten Hindernisse liegen in der organisatorischen Umsetzung, und hier gibt es bereits Probleme.

Agentische KI-Technologie wird in der Lage sein, komplexe Systeme selbstständig zu verwalten oder Fehler vorherzusagen, lange bevor Unternehmen dies zulassen. Die Hindernisse sind ausschließlich menschlicher Natur und drehen sich um die folgenden großen Themen:

  • Management: Die Implementierung von Agentic AI ist etwas ganz anderes als die Installation einer neuen Software in Ihrem Unternehmen. Es bedeutet einen grundlegenden Wandel in der Art und Weise, wie gearbeitet wird. Die Mitarbeiter müssen verstehen, wie sie mit den Agenten zusammenarbeiten können, wann sie eingreifen müssen und wie sich ihre eigene Rolle entwickeln wird, ohne dass sie um ihren eigenen Arbeitsplatz fürchten müssen. Dies erfordert umfassende Schulungen und eine klare Strategie für das Change Management.
  • Vertrauen: Würden Sie einem KI-Agenten zutrauen, eine Lieferkette selbstständig zu verwalten oder eine Kundenbeschwerde ohne jegliche Aufsicht zu bearbeiten? Wenn ja, dann sind Sie bereits auf dem falschen Weg. Sie sollten ihm nicht trauen, und das zu Recht. Vertrauen verdient man sich durch Transparenz, Zuverlässigkeit und nachweisliche Sicherheit.
  • Regulierung: Wer haftet, wenn ein Agent einen kostspieligen Fehler macht, oder wer ist schuld, wenn durch eine automatisierte Aktion eine Sicherheitslücke entsteht? All diese Fragen müssen beantwortet werden, bevor Agentic AI in Ihrem Unternehmen Entscheidungen treffen kann. Dies gilt umso mehr für regulierte Branchen wie das Finanz- und Gesundheitswesen.

In gewisser Weise kann man sagen, dass die Kurve der KI-Akzeptanz von Agenten den Aufstieg des Internets widerspiegelt: Während Technologen die KI sofort annehmen, erfordert eine breitere Akzeptanz in Unternehmen Zeit, Schulung und einen Kulturwandel. Sie können die fortschrittlichste agentechnische Plattform der Welt haben, aber wenn Ihre Mitarbeiter ihr nicht vertrauen oder nicht wissen, wie sie zu nutzen ist, und Ihre Kunden nicht damit zufrieden sind, bietet sie keinerlei Wert.

Sind Sie bereit, ein KI-fähiges Unternehmen aufzubauen?

Wie können Unternehmen diesen Wandel also bewältigen? Die Lösung liegt in der bewussten Konzentration auf die Bereitschaft, angefangen bei der Ausbildung und Weiterbildung. Dies ist kein einfacher technologischer Wandel, bei dem es ausreicht, in "neue Maschinen" zu investieren. Unternehmen sollten stattdessen die gleiche Zeit und das gleiche Geld in ihre Mitarbeiter investieren. Beginnen Sie damit, Softwareingenieure in KI-Ethik und Sicherheitsgrundsätzen zu schulen. Schulen Sie Datenwissenschaftler in sicheren technischen Praktiken. Informieren Sie alle Führungskräfte über die strategischen Implikationen von Agentic AI.

Zweitens, aber ebenso wichtig, sollten Evaluierung und Governance vom ersten Tag an Ihre wichtigsten Prioritäten sein. Bevor Sie Ihren ersten Agenten einsetzen, sollten Sie einen Bewertungsrahmen festlegen. Das bedeutet, dass Sie vom ersten Tag an in der Lage sind, die Leistung, Sicherheit und Zuverlässigkeit des Agenten zu messen. Definieren und erklären Sie schließlich die Grenzen, die der Agent niemals überschreiten darf.

Aber so sehr es auch möglich ist, die perfekten Sicherheitsvorkehrungen zu schaffen, sollten diese Agenten niemals allein gelassen werden, um zu handeln. Denken Sie stattdessen über einen stufenweisen Ansatz nach, bei dem Menschen zu Beginn alles, was diese Agenten tun, genau prüfen sollten, um dann zum klassischen Human-in-the-Loop-Ansatz überzugehen. Setzen Sie Agenten ein, um Routineaufgaben zu erledigen und Zusammenfassungen und Empfehlungen zu geben, wobei der Mensch in der Entscheidungsschleife bleibt. Das schafft Vertrauen und liefert wichtige Lerndaten sowohl für die KI als auch für das Unternehmen.

Aber all dies ist eine ziemlich große Aufgabe, die Sie allein bewältigen müssen, insbesondere in regulierten Sektoren, wo schon der kleinste Fehler Reputation und Geld kosten kann. Denken Sie stattdessen darüber nach, den richtigen Partner zu finden, der Sie bei dieser kritischen Umstellung unterstützt und Ihnen hilft, Ihre Reise zu beschleunigen und Sie durch die richtigen Schritte zu führen.

Google Cloud vergleicht diesen Wandel in der Belegschaft mit den Anfängen der Cloud-Einführung. Die Unternehmen, die erfolgreich waren, haben nicht einfach eine neue Infrastruktur eingeführt, sondern ihre Kultur und ihre Prozesse neu definiert. Agentische KI erfordert einen ganz ähnlichen Sprung, indem kontinuierliches Lernen, Evaluierung und Human-in-the-Loop-Praktiken in die täglichen Arbeitsabläufe eingebettet werden. Ohne diesen gewaltigen Kulturwandel werden selbst die fortschrittlichsten KI-Plattformen nicht ausreichend genutzt, so dass die Unternehmen in Pilotprojekten stecken bleiben, anstatt die Branche zu transformieren.

Wie Xebia die agentenbasierte KI-Transformation ermöglicht

Die wirtschaftlichen und strategischen Auswirkungen der Agenten-KI sind von entscheidender Bedeutung. Wir bei Xebia wissen, dass die Einführung von Agenten-KI nicht einfach nur eine technische Umstellung ist, sondern eine Veränderung der Arbeits- und Denkweise Ihres Unternehmens bedeutet. Wenn Sie sich für Xebia als Technologiepartner entscheiden, helfen wir Ihnen bei diesem Wandel, indem wir:

  • Unsere KI-Bereitschaftsprogramme: Xebia bewertet den aktuellen Reifegrad Ihres Unternehmens für die bevorstehende Transformation und entwickelt eine maßgeschneiderte Strategie für die Entwicklung von Arbeitskräften und Fähigkeiten.
  • Spezialisiertes Training: Wir bieten Trainingsprogramme an, die darauf ausgerichtet sind, diese kritischen hybriden Fähigkeiten aufzubauen, von KI-Sicherheitstechnik bis hin zu agentenbasiertem Produktmanagement. Wir sind auch gerne bereit, Schulungen für die Bedürfnisse Ihres Unternehmens anzupassen.
  • Veränderungsmanagement und Rahmenwerke für die Einführung: Xebia verfügt über alle Tools und Fachkenntnisse, die Sie benötigen, um Ihre Mitarbeiter durch diesen Wandel zu führen und eine Kultur des Vertrauens und der Zusammenarbeit mit KI zu fördern.

Das Zeitalter der agentenbasierten KI kommt nicht erst noch, es ist schon da. Die Gewinner werden diejenigen sein, die erkennen, dass ihre wichtigste Investition nicht in den Modellen selbst liegt, sondern in den Menschen und Prozessen, die sie sicher und effektiv nutzen werden. Die Zeit für den Aufbau einer hybriden, KI-fähigen Belegschaft ist jetzt gekommen.

Contact

Let’s discuss how we can support your journey.