Die Sitzung am Mittwochnachmittag auf der AWS re:Invent 2023 bot einen tiefen Einblick in die AWS KI- und ML-Services und die vielen Möglichkeiten, wie Unternehmenskunden ihre Geschäftsmodelle mit generativer KI transformieren.
Dr. Bratin Saha, VP von AWS AI and ML Services, ist der Meinung: "Mit dem Aufkommen der generativen KI befinden wir uns an einem Wendepunkt in der breiten Einführung des maschinellen Lernens." Sein Argument ist, dass globale Unternehmen bereits jetzt KI/ML-Anwendungen entwickeln und in ihre täglichen Abläufe integrieren, und wir können - selbst in diesem frühen Stadium - eine Reihe von konzeptionellen und digitalen Best Practices erkennen.

Dr. Saha identifizierte fünf zentrale Ziele oder thematische Schwerpunkte für erfolgreiche KI/ML-Implementierungen:
- Auswahl und Flexibilität der Modelle: Amazon Bedrock bietet eine große Auswahl an LLMs oder Grundmodellen, zum Teil weil verschiedene Modelle (z.B. GPT-4, Lamda, Claude v2) deutlich unterschiedliche Vor- und Nachteile haben - ein Modell kann ein besseres Preis/Leistungsverhältnis bieten, während ein anderes vielleicht vollständigere oder genauere Antworten auf Abfragen liefert.
- Differenzieren Sie sich mit Ihren Daten: Alles beginnt und endet mit Daten - und wie Dr. Saha betonte, ist es ohne eine robuste Datenplattform sehr schwer, KI- und ML-Anwendungen zu entwickeln. Daher müssen Unternehmen eine optimierte Datenplattform und Datenstrategie entwickeln, einschließlich KPIs für Datenerfassung, Fehlerkorrektur, Integration, Speicherung und mehr.
- Verantwortungsvolle KI-Integration: KI sollte eine "Zugriffskontrolle nach Mitarbeiterrolle" bieten. So kann es beispielsweise sein, dass Ihr CEO die vierteljährliche Umsatzprognose des Unternehmens einsehen muss, aber die meisten Mitarbeiter sollten diese Informationen nicht vor einer Gewinnbekanntgabe erhalten.
- Kostengünstige, leistungsstarke Infrastruktur: In den letzten sechs Jahren hat sich die Größe von LLMs um das 1.000-fache und die Menge der für KI/ML bereitgestellten Rechenressourcen um das 100.000-fache erhöht. Angesichts dieser außergewöhnlichen Anforderungen sind Verbesserungen unerlässlich. Einige Beispiele: die jüngsten Kosten-/Leistungsfortschritte bei Amazon S3 und Aurora Serverless Database oder bei KI-Hardware wie AWS Graviton 4, Inferentia und Trainium 2 Chips.
- Generative KI-gestützte Anwendungen: KI/ML kann Zeit und Geld sparen und das Leben von Mitarbeitern in allen Bereichen einfacher und produktiver machen. Unglaublich, dass Ärzte bis zu 40 % ihrer Zeit mit "Schreibern" verbringen, indem sie Untersuchungsberichte von Patienten, Behandlungsdetails usw. manuell abtippen. AWS HealthScribe kann jedoch KI einsetzen, um all dies automatisch zu erledigen, so dass vielbeschäftigte Ärzte zwei volle Tage Zeit pro Woche zurückgewinnen können.
Hier ist eine "Herausforderung im Gesundheitswesen" und eine "KI-Lösung":


Wie generative KI Ihrem Unternehmen einen Mehrwert bieten kann
Xebia ist überzeugt, dass generative KI (GenAI) Unternehmen helfen kann, ihre Effizienz zu steigern, Innovationen voranzutreiben, Produkte und Dienstleistungen zu personalisieren und Wettbewerbsvorteile zu erlangen. Durch die Automatisierung sich wiederholender Aufgaben und die Ermöglichung personalisierter Lösungen kann GenAI Unternehmen Zeit und Geld sparen und gleichzeitig die Kundenzufriedenheit und -treue verbessern. GenAI kann die Arbeitsabläufe von Ingenieuren, Wissenschaftlern, Forschern und kreativen Künstlern rationalisieren, und KI-Modelle können Audio-, Video-, Text- oder Bildeingaben akzeptieren und neue Inhalte in alternativen Modalitäten generieren. Und der gesamte Prozess der Softwareentwicklung kann beschleunigt werden, indem man "KI den Code für Sie schreiben lässt".
Hier ist ein Beispiel: Kürzlich musste einer unserer führenden Geschäftsführer bei Xebia Data & AI eine Massenerinnerungsnachricht per SMS an Xebia-Kunden senden. Mit Hilfe von ChatGPT entwickelte er in nur wenigen Minuten eine Anwendung in der Programmiersprache Go, eine Aufgabe, die normalerweise Tage dauern würde. Um Giovanni Lanzani zu zitieren, der hinter dieser Errungenschaft steht: "Die Geschwindigkeit, mit der ich funktionierenden Code in einer neuen Sprache erstellen konnte, war erstaunlich ... Sie übernehmen das High-Level-Denken, lassen LLMs zeitaufwändige, einfache Probleme bearbeiten, überprüfen dann ihre Ausgabe und setzen die Teile zusammen."
Die Möglichkeiten sind endlos und wirklich aufregend. Aber - Xebia glaubt auch, dass generative KI erhebliche Herausforderungen in Bezug auf Datenwissenschaft, Cloud-Architektur und grundlegende Modelle und Anwendungsfälle (unter anderem) mit sich bringt. Hier ist unsere Meinung:
Dateninfrastrukturen sind der Schlüssel zum geschäftlichen Wandel. Xebia entwickelt seit mehr als zwanzig Jahren Datenplattformen und Pipelines und kann Ihnen helfen, die GenAI-Revolution in Ihr Unternehmen zu bringen. Wir bieten einen Maturity Scan, eine Daten-Roadmap, Data Engineering, maschinelles Lernen und NextGen Analytics (BI) Assessments an, die zur Formulierung eines Plans führen, um die Kraft Ihrer Daten nutzbar zu machen. Durch die Verwendung unserer eigenen Vorlagen für jede öffentliche Cloud können wir schnell eine Datenplattform einrichten und Data-Science-Anwendungen erstellen, die zukünftige Erkenntnisse liefern. So können Sie die Kundenabwanderung verringern, die Nachfrage vorhersagen, Ihre Logistikkette optimieren und Geschäftsprozesse automatisieren.
In einem früheren Blog haben wir festgestellt, dass KInur in einer Cloudihr volles Potenzial entfalten kann. Einer der wichtigsten Vorteile der Cloud ist ihr schieres Gewicht: Nur wenige proprietäre "Glashäuser" können es mit der Rechenleistung und Skalierbarkeit eines AWS-, Azure- oder Google Cloud-Rechenzentrums aufnehmen. Das ist entscheidend, denn GenAI-Modelle umfassen Milliarden von Faktoren und erfordern schnelle, effiziente Datenpipelines zum Trainieren. Um generative Modelle zu entwickeln und zu pflegen, sind fachkundiges Personal, große Investitionen und eine umfangreiche Recheninfrastruktur erforderlich. Die Premier-Partnerschaften von Xebia mit den Hyperscalern - und unser globales Team von Fachberatern - ermöglichen es uns, Cloud-Lösungen überall und in jeder Größenordnung zu planen, zu erstellen und zu verwalten.
Um die volle Leistung von GenAI in Ihren Anwendungen zu entfesseln, hat Xebia das GenAI Platform Blueprint entwickelt. Diese MLOps (Machine Learning Operations)-Plattform ist darauf zugeschnitten, Sie bei der Entwicklung von GenAI-gestützten Anwendungen zu unterstützen, den gesamten Lebenszyklus Ihrer Modelle zu verwalten und sie in Ihre bestehende Infrastruktur zu integrieren. Die Plattform besteht aus den folgenden Komponenten:

In der Base Generative AI Platform verwenden wir kommerzielle Foundation Generative AI-Produkte von Drittanbietern sowie Open-Source-Modelle - und wir kombinieren sie mit Ihren Daten, um die Plattform nach Ihren Bedürfnissen zu gestalten. Die Architektur stellt sicher, dass Ihre Daten innerhalb eines privaten Rahmens bleiben. Hier sind die Details:
Modell: Wir nutzen Open-Source-Grundmodelle (z.B. Falcon) oder kommerziell verfügbare Modelle (z.B. OpenAI Chat API, Google PaLM API, Amazon Bedrock). Wir helfen Ihnen bei der Integration dieser Out-of-the-Box-Lösungen oder automatisieren die Feinabstimmung Ihrer Daten für personalisierte Anwendungen.
Aufforderungen: Der Schlüssel zur generativen KI liegt darin, die idealen Prompts zu finden. Wir stellen Ihnen eine Umgebung zur Verfügung, in der Sie Prompt-Vorlagen verwalten, dokumentieren und mit ihnen experimentieren können.
Überwachung: Wir zeichnen Aufforderungen, Antworten und Benutzerfeedback auf, um die Leistung zu überwachen und Modellabweichungen zu erkennen. Anschließend verwenden wir die bereitgestellten Informationen zur Feinabstimmung des Modells.
Schnittstelle: Wir stellen Ihnen die Schnittstelle für die GenAI-Modellinferenz mit der programmatischen API zur Verfügung, d. h. einen Docker-Container, der als Service bereitgestellt werden kann. So haben Sie die Kontrolle über den Prozess und können ihn auf Geschwindigkeit optimieren.
Cloud und Data Foundation: Wir liefern Ihnen die notwendigen Komponenten, um ein durchgängiges GenAI-Modell während seines gesamten Lebenszyklus zu pflegen. Wir bieten Ihnen alles von den Modellen und der zeitnahen Speicherung bis hin zur Feinabstimmung der Automatisierung, Inferenz und Modellüberwachung.
Fazit: Das Xebia MLOps Framework erleichtert das Trainieren, Bereitstellen und Aktualisieren großer GenAI-Modelle in verschiedenen Umgebungen, wodurch die betriebliche Komplexität reduziert und die Effizienz verbessert wird. Unsere GenAI-Plattform ermöglicht es Unternehmen, ihre Modelle, Daten und Prompts transparent zu aktualisieren, wobei Experimente nachverfolgt und Änderungen rückgängig gemacht werden können. Und Ihre Teams können sicherstellen, dass LLMs auf genau definierten Prozessen und Best Practices basieren, was zu zuverlässigeren und vorhersehbareren Ergebnissen führt, indem sie die Modellschulung, -bereitstellung und -aktualisierung überwachen und die Historie über den gesamten Lebenszyklus hinweg bereitstellen.
Zu den Vorteilen für Ihr Unternehmen gehören:
- Bessere Zusammenarbeit im Team
- Standardisierung von Modellen
- Modellsteuerung und Reproduzierbarkeit
- Verbesserte Skalierbarkeit und Leistung
- Kontrolle der Feinabstimmung und des Modellinferenzprozesses
- Kostenoptimierung
Bleiben Sie dran, denn wir werden weiterhin unsere Perspektiven zu GenAI und Ihrer Zukunft in der Cloud darlegen.
Contact




