Blog

5 Punkte, die Sie beachten sollten, bevor Sie große Sprachmodelle für Versicherungen implementieren

Divya Prathima

Divya Prathima

Aktualisiert Oktober 15, 2025
4 Minuten

Aufgrund der großen Beliebtheit von KI-Tools wie ChatGPT und Bard haben viele Tech-Unternehmen damit begonnen, KI-Tools wie Chatbots anzupassen. Da der Versicherungssektor nach der Pandemie weltweit stetig wächst, haben diese Tools auch auf dem InsurTech-Markt Einzug gehalten. Bevor Sie jedoch KI-Erweiterungen implementieren und nutzen, sollten Sie sich darüber im Klaren sein, dass diese Tools ihre Grenzen haben. Man muss diese Einschränkungen verstehen und angehen, um die Nutzung des Tools zu erweitern. Wenn Sie bereits in der Entwurfsphase die nötige Sorgfalt walten lassen, können Sie Ihre Produkte mit neuen KI-Funktionen ausstatten und diese auch zuverlässig machen.

Hier sind 5 Tipps, mit denen Sie beginnen können.

  1. Definieren und implementieren Sie Leitplanken. Wenn wir einen KI-Chatbot zu einer Versicherungsplattform hinzufügen, müssen wir sicherstellen, dass nur relevante Fragen gestellt werden. Es gibt zwei Möglichkeiten, dies zu tun. Entweder wir schränken die Fragen ein, indem wir Textfelder durch vordefinierte Fragen ersetzen, oder wir trainieren den Chatbot, auf irrelevante Fragen hinzuweisen und sie zu überspringen. Die erste Option ist zwar einfacher zu implementieren als die zweite, aber wenn es viele Texteingabeoptionen gibt (verschiedene Absichten und Kategorien), ist die zweite vorzuziehen. So oder so, da diese Chatbots nicht wie Siri, Alexa oder ChatGPT generisch sind, ist es wichtig, Grenzen zu definieren und durchzusetzen.
  2. Nutzen Sie es nicht nur, um den Kundenservice zu automatisieren, sondern auch, um die Sicherheit und den Datenschutz zu verbessern. Da LLMs, die im Versicherungssektor eingesetzt werden, Zugang zu sensiblen Informationen wie Kundenkontakten, medizinischen Informationen, Vermögensdetails usw. haben, ist es wichtig, Sicherheitslücken zu erkennen, die auftauchen können. Eine gute Praxis ist es, Bedrohungen zu bewerten und LLMs einzusetzen, um darauf zu antworten. Es ist wichtig zu beachten, dass die Sicherheit nicht auf die lange Bank geschoben werden kann, sondern bereits in der Anfangsphase berücksichtigt werden sollte.
  3. Stärken Sie die Datenstrukturen, da sie die Grundlage für LLMs bilden. Da LLMs aus den gelieferten Daten lernen, Verbindungen herstellen und Analysen liefern, ist es äußerst wichtig, dass die Daten überprüft und angemessen strukturiert werden. Darüber hinaus sollte es strenge Sicherheitsmaßnahmen wie rechtzeitige Audits und eine rollenbasierte Zugriffskontrolle geben. Wären da nicht die zwingenden Sicherheitsmaßnahmen, wäre die Implementierung von LLMs tatsächlich ziemlich einfach. Bevor LLMs zu Anwendungen hinzugefügt werden, ist es jedoch wichtig, den Datenschutz durch geeignete Datensicherheitsmaßnahmen zu gewährleisten.
  4. Sorgen Sie für eine gründliche Schulung der Modelle, damit sie effizient und ethisch korrekt eingesetzt werden können. Wie bei Menschen sind auch KI-Tools nicht frei von Vorurteilen. Die Hersteller sollten sich dieser Voreingenommenheit bewusst sein und geeignete Maßnahmen ergreifen, um zu verhindern, dass menschliche Voreingenommenheit auf LLMs übertragen wird. Zum Beispiel können Versicherungsprämien auf der Grundlage des tatsächlichen Risikos berechnet werden, nicht aber auf der Grundlage des wahrgenommenen Risikos, das fälschlicherweise anhand des Nachnamens, der Ethnie, des Geschlechts usw. des Versicherers berechnet wird. Unternehmen, die intelligente Softwareprodukte entwickeln, sollten Menschen mit unterschiedlichem Hintergrund einstellen, um LLMs zu entwickeln und zu testen. Sie sollten Voreingenommenheitstests in regelmäßige Produkttests einbeziehen.
  5. Verwenden Sie sie zusammen mit anderen Technologien wie LDMs (Large Data Models) und NLP (Natural Language Processing), um fortgeschrittenere Operationen zu ermöglichen. Technologie-Upgrades wie die Verwendung von LLMs in Chatbots oder die Automatisierung der Kundenbetreuung betreffen in der Regel verschiedene Komponenten des Produkts oder der Plattform. Manchmal überschneiden sich die Funktionen von LLM-Implementierungen mit verschiedenen Abteilungen des Unternehmens. Es ist daher von Vorteil, über kombinatorische Technologieimplementierungen nachzudenken. Unternehmen müssen neben der Nutzung von LLMs auch darüber nachdenken, welche anderen Technologien erforscht werden können, welche Upgrades zusammen implementiert werden können und welche Funktionalitäten gruppiert und zu ihrem Produkt- und Serviceangebot hinzugefügt werden können.

LLM-Implementierungen mögen trügerisch leicht und einfach erscheinen. Sie wirken sich jedoch auf kritische Aspekte wie Sicherheit, Datenschutz, Geschäftsstrategie, Betrieb usw. aus. Ein kleiner Fehler, auch wenn er unbeabsichtigt ist, kann schwerwiegende Folgen haben und für ein Unternehmen zu kostspielig werden. Bei der Auswahl eines Entwicklungspartners für LLM-Implementierungen ist es wichtig, dessen Erfahrung in verschiedenen Bereichen und Technologien zu berücksichtigen, nicht nur bei der Entwicklung von KI-Tools.

coMakeIT ist ein Teil der Muttergesellschaft Xebia und entwickelt zuverlässige und skalierbare Softwareprodukte für Unternehmen in verschiedenen Bereichen und Regionen. Mit rund zwei Jahrzehnten Erfahrung bietet coMakeIT seinen Kunden nicht nur Kenntnisse in der Produkt- und Plattformentwicklung, sondern auch eine ganzheitliche technologische Vision, die auf seiner Expertise in tiefgreifender Analyse, strategischer Planung und Produktdenken beruht. Wenn Sie auf der Suche nach einer sicheren und zuverlässigen Implementierung neuartiger Technologien wie LLMs und KI für einen beliebigen Bereich sind, dann sprechen Sie mit uns.

Verfasst von

Divya Prathima

The author was a java Developer at coMakeIT before turning into a stay-at-home-mom. She slowed down to make art, tell stories, read books on fiction, philosophy, science, art-history, write about science, parenting, and observe technology trends. She loves to write and aspires to write simple and understandable articles someday like Yuval Noah Harari. We are very happy to have her back at coMakeIT and contribute to our relevant and thought provoking content.

Contact

Let’s discuss how we can support your journey.