Blog

Ethik und Vertrauen im Zeitalter der KI. Erkenntnisse aus der GoData Fest-Podiumsdiskussion

Klaudia Wachnio

Klaudia Wachnio

Aktualisiert März 17, 2026
9 Minuten

Künstliche Intelligenz ist kein futuristisches Konzept mehr; sie ist in unser tägliches Leben und unsere Geschäftsabläufe eingeflochten. Von der Optimierung der Lieferkette über medizinische Diagnostik bis hin zu Chatbots für den Kundenservice - das Potenzial der KI ist atemberaubend. Doch mit großer Macht kommt auch große Verantwortung. Diese Meinung vertritt nicht nur der freundliche Nachbar Spider-Man, sondern jeder Experte, der sich mit den ethischen Implikationen dieser Technologie auseinandersetzt.

Auf dem GoDataFest 2025 organisierte Xebia eine Podiumsdiskussion über Ethik und Vertrauen im Zeitalter der KI, die sich mit einigen der wichtigsten Fragen rund um diese Diskussion befasste. Die Diskussionsteilnehmer waren Giovanni Lanzani (Managing Director Data & AI bei Xebia), Anindita Misra (Director of AI and Governance bei Brenntag) und Chozhan D M, (Engineering Manager bei Blacklane). Die Diskussion dreht sich nicht mehr darum, ob wir leistungsfähige KI bauen können, sondern darum, wie wir KI bauen können, die verantwortungsvoll, fair und vor allem vertrauenswürdig ist. Was meinen wir also wirklich, wenn wir über Ethik und Vertrauen in KI sprechen, und wie können Unternehmen von abstrakten Prinzipien zu konkreten Maßnahmen übergehen? Wer ist letztendlich verantwortlich, wenn etwas schief geht?

Was ist Ethik in der KI? Mehr als ein Buzzword

Im Kern geht es bei der Ethik in der KI darum, sicherzustellen, dass diese leistungsstarken Systeme in einer Weise eingesetzt werden, die richtig und gerecht ist. Aber wie ein Redner auf dem Podium bemerkte, kann sich Ethik vage anfühlen. "Was für Sie richtig ist, ist für mich vielleicht nicht richtig". Diese Subjektivität ist genau der Grund, warum die Diskussion um das Thema Verantwortung erweitert werden muss.

Ethik in der KI ist eine multidimensionale Herausforderung, die verschiedene Aspekte berührt:

  • Fairness und Voreingenommenheit: Trifft KI Entscheidungen, die gerecht sind, oder verstärkt sie bestehende menschliche Voreingenommenheiten, die in den Daten versteckt sind, auf denen sie ursprünglich trainiert wurde?
  • Transparenz und Erklärbarkeit: Können wir verstehen, warum eine KI eine bestimmte Entscheidung getroffen hat? Niemand wird jemals einer "Black Box" vertrauen.
  • Datenschutz: Wie werden Benutzerdaten gesammelt, verwendet und gespeichert? Wird die Einwilligung respektiert, oder werden Grenzen überschritten?
  • Verantwortlichkeit: Wenn etwas schief geht, wer ist dann verantwortlich? Eine klare Linie der Verantwortlichkeit ist nicht verhandelbar.
  • Sicherheit und Schutz: Ist das System robust gegen Missbrauch, Angriffe oder einfach nur gefährliche Fehler?

Letztlich geht es bei der Ethik, wie Anindita Misra es treffend formuliert hat, um Werte. Es geht um die individuellen Werte der Menschen, die die Systeme aufbauen, und um die zentralen Unternehmenswerte der Organisationen, die sie einsetzen. "Wenn Sie Ihr eigenes Geschäftsmodell darauf aufgebaut haben, die Gefühle der Menschen zu manipulieren, was können wir dann von Ihnen erwarten, dass Sie KI einsetzen?", stellte Giovanni Lanzani fest und betonte, dass KI oft bereits bestehende Geschäftsmodelle verstärkt, im Guten wie im Schlechten.

Was bedeutet letztlich Vertrauen in KI?

Wenn Ethik der Kompass ist, ist Vertrauen das Ziel. Vertrauen ist die grundlegende Zutat, die darüber entscheidet, ob ein KI-System angenommen und effektiv genutzt wird. Aber wie definieren wir Vertrauen zwischen einem Menschen und einer Maschine?

Es geht um ein paar wichtige Erwartungen:

  1. Konsistenz und Verlässlichkeit: Das System muss faire und konsistente Antworten liefern, egal wie oft Sie nachfragen, wenn Sie die gleichen Eingabeparameter verwenden. Wir vertrauen dem, worauf wir uns verlassen können.
  1. Erklärbare Begründungen: Wir vertrauen auf Entscheidungen, wenn wir den Grund für sie verstehen. Eine KI sollte nicht einfach nur ein Ergebnis ausgeben, sondern ihren "Denkprozess" auf eine Weise erklären können, die für den Geschäftsanwender verständlich ist, nicht nur für den Datenwissenschaftler.
  1. Sicherheit: Fühlen wir uns bei der Nutzung dieses Systems sicher? Dies umfasst sowohl die Datensicherheit als auch die physische Sicherheit von KI-gesteuerten Maschinen. Das Vertrauen schwindet, wenn wir befürchten, dass die Technologie missbraucht werden oder Schaden anrichten könnte.

Eine verblüffende Statistik aus der Diskussion verdeutlicht die derzeitige Vertrauenslücke: nur 28% der Führungskräfte vertrauen KI-Leistungen genauso sehr wie menschlichen Leistungen. Wir sagen "nur", aber selbst dieser Prozentsatz könnte in diesem Moment für einige Menschen überraschend sein, wie Chozhan D M feststellte. Ein Unternehmen, das seine Geschäftsentscheidungen einer Blackbox anvertraut? Das wäre ziemlich riskant. Diese Lücke zu schließen, ist die größte Herausforderung, vor der die breite Einführung von KI heute steht.


Bericht herunterladen

Die Bausteine: Wie man das Vertrauen in KI-Systeme stärkt

Im Moment wird KI vor allem von gering qualifizierten Arbeitnehmern mit Angst betrachtet. Viele Unternehmen fühlen eine Art FOMO, wenn sie nicht auf KI umsteigen. Aber wie viele Arbeitnehmer werden tatsächlich durch KI ersetzt und welchen Wert hat diese neue Technologie wirklich?

Mit dem Vertrauen kommt der Wert, denn wenn niemand Ihrer KI und ihren Ergebnissen oder Entscheidungen vertraut, ist die Investition in die Technologie völlig umsonst. Der Aufbau von Vertrauen ist der erste Schritt auf dem Weg zur Wertschöpfung. Dabei geht es nicht um eine einzelne Maßnahme, sondern um eine kulturelle und technische Verpflichtung. Die Diskussionsteilnehmer erläuterten mehrere konkrete Bausteine:

1. Transparenz durch Design
Bei der Transparenz geht es nicht darum, komplexen Code offenzulegen. Es geht darum, eine klare, auf das Geschäft ausgerichtete Argumentation zu liefern. Wenn eine KI für die Lieferkette beispielsweise die "Route B" empfiehlt, muss sie erklären, warum und Faktoren wie Kosten, Geschwindigkeit und Nachhaltigkeit anführen, die mit den strategischen Zielen des Unternehmens übereinstimmen. Wie Giovanni Lanzani es ausdrückt, ist Change Management unerlässlich, um die Kultur zu entwickeln und KI mit dem Geschäftswert (in Form von harten Daten) zu verbinden. Dies führt zu einem Paradigmenwechsel von einer "Black Box" zu einer "Glass Box", in der die inneren Abläufe sichtbar und verständlich sind.

2. Rücksichtslose Rechenschaftspflicht
Es muss immer ein "Mensch in der Schleife" sein. Das bedeutet, dass für jedes KI-System klare Eigentumsverhältnisse geschaffen werden müssen, "ein Name, nicht nur eine Rolle". Wer überwacht den Zustand des Systems? Wer ist rechenschaftspflichtig, wenn es versagt? An wen wendet sich ein Mitarbeiter mit seinen Bedenken? Ein klarer, auf den Menschen ausgerichteter Verantwortlichkeitsrahmen ist für die Schaffung psychologischer Sicherheit und die Minderung von Risiken unerlässlich.

3. Weitverbreitete KI-Kompetenz
Vertrauen kann nicht in einem Vakuum aufgebaut werden. KI-Kenntnisse sind nicht nur für Datenwissenschaftler wichtig, sondern für jeden im Unternehmen, von der Chefetage bis hin zu den Mitarbeitern an der Front. Jeder, der mit KI zu tun hat, muss ihre Fähigkeiten, Grenzen und grundlegenden Funktionsprinzipien verstehen. Dies entmystifiziert die Technologie und befähigt die Mitarbeiter, sie kritisch und effektiv zu nutzen.

4. Ein Fundament aus Fairness und robusten Daten
Eine KI ist nur so gut wie die Daten, die sie nutzt. Wenn die Trainingsdaten verzerrt sind, werden auch die Entscheidungen der KI verzerrt sein. Es ist wichtig, aktiv daran zu arbeiten, Verzerrungen zu erkennen und abzuschwächen. Darüber hinaus muss das System technisch robust sein, d.h. es muss eine wiederholbare, zuverlässige Leistung erbringen und gegen Schwachstellen geschützt sein.

5. Datenschutz als Voraussetzung
Im Zeitalter des datengesteuerten Lernens ist die Wahrung der Privatsphäre der Benutzer von größter Bedeutung. Dazu gehört die Datenminimierung, d.h. die Beschränkung auf die für die Aufgabe unbedingt erforderlichen Daten, und der Einsatz von Techniken wie Anonymisierung und Pseudonymisierung. Wie Chozhan D. M. warnte, gehen die Risiken über die Identifizierung von Einzelpersonen hinaus und reichen bis zu einer breiteren gesellschaftlichen Profilbildung, wenn sensible Daten in externen Clouds zusammengeführt werden.

Von der Theorie zur Praxis: Konkrete Schritte, die Sie jetzt unternehmen können

Bevor Sie klären, wie und warum KI in Ihrem Unternehmen funktioniert, fragen Sie, ob Ihr Unternehmen sie braucht. Wie Chozhan es ausdrückt: "Machen Sie keine KI nur um der KI willen, keine KI, wo sie nicht gebraucht wird". Finden Sie zuerst den Wert der KI und überlegen Sie dann, wie Sie sie in Ihrem Unternehmen einsetzen können.

Der Weg zu vertrauenswürdiger KI ist ein langer Weg, aber hier sind die ersten Schritte, die Ihr Unternehmen unternehmen kann:

  • Beginnen Sie mit der Erklärbarkeit: Machen Sie dies zu einer nicht verhandelbaren Voraussetzung für jedes KI-System, das Sie bauen oder kaufen. Verwenden Sie Techniken wie SHAP oder LIME, um zu visualisieren, welche Faktoren eine Entscheidung beeinflussen.
  • Schaffen Sie eine klare Führung: Schaffen Sie ein funktionsübergreifendes, verantwortliches KI-Board. Implementieren Sie einen risikobasierten Rahmen, in dem Systeme mit hohem Risiko einer strengen Prüfung unterzogen werden, während Innovationen mit geringerem Risiko freier fließen können. Stellen Sie sicher, dass der Eskalationsprozess funktioniert, wenn etwas schief geht.
  • Übertreiben Sie es nicht: Seien Sie ehrlich, was die Fähigkeiten und Fehlerquoten Ihrer KI angeht. Wie Giovanni Lanzani riet, "erklären Sie immer die Kompromisse". Das schafft langfristige Glaubwürdigkeit gegenüber kurzfristigem Hype.
  • Investieren Sie in Change Management: Vertrauen wird durch Erfahrung gewonnen. Führen Sie Pilotprojekte durch, bei denen KI-Empfehlungen von menschlichen Experten überstimmt werden können, und messen Sie dann die Ergebnisse. Wenn Sie zeigen können, wie oft die KI richtig lag, und den Wert, der durch Überschreibungen verloren geht, quantifizieren, gewinnen Sie die Herzen und Köpfe Ihrer Kunden.
  • Stellen Sie den Anbietern schwierige Fragen: Wenn Sie sich auf KI von Drittanbietern verlassen, verlangen Sie Transparenz. Wie wird mit unseren Daten umgegangen? Wie stellt Ihr Modell Fairness sicher? Führen Sie regelmäßig Audits durch, um sicherzustellen, dass die Realität mit dem Vertrag übereinstimmt.

Die hybride Zukunft von Mensch und KI

Der Weg zu einer ethischen, vertrauenswürdigen KI ist nicht nur eine technische Herausforderung, sondern auch eine menschliche. Sie erfordert eine grundlegende Verpflichtung zu Bildung, Verantwortung und Transparenz. Sie zwingt uns dazu, unsere eigenen Werte und Geschäftsmodelle zu hinterfragen. Und sie erinnert uns daran, dass das Ziel der KI nicht darin bestehen sollte, die Menschheit zu ersetzen, sondern sie zu ergänzen, das Repetitive zu erledigen, damit wir uns auf das Kreative, das Komplexe und das Empathische konzentrieren können.

Letztendlich geht es beim Aufbau von Vertrauen in die KI darum, Systeme zu schaffen, die das Beste unserer Menschlichkeit widerspiegeln: Systeme, die fair und verantwortungsbewusst sind und vor allem dazu dienen, uns allen zu dienen. Das Zeitalter der KI ist da. Lassen Sie uns sicherstellen, dass es ein Zeitalter ist, dem wir alle vertrauen können.

Sehen Sie sich die vollständige Diskussion unten an und markieren Sie Ihren Kalender! Das GoData Fest 2026 wird vom 26. bis 30. Oktober 2026 stattfinden.

Verfasst von

Klaudia Wachnio

Contact

Let’s discuss how we can support your journey.