Artikel
Verantwortungsvolle KI: Der Stecker zum Schließen der Lücken in den KI-Modellen

Künstliche Intelligenz (KI) ist nicht länger auf Science-Fiction-Bücher beschränkt. Von der Vorhersage der Korrosionsrate von Gaspipelines bis hin zur Erkennung verdächtiger Aktivitäten im Bankwesen liefert KI ein Höchstmaß an Genauigkeit mit einer Geschwindigkeit, die für Menschen allein unmöglich zu erreichen wäre. Jüngste Vorfälle - wie das KI-gestützte Rekrutierungstool von Amazon, das Frauen benachteiligt - haben jedoch die Risiken des Einsatzes von KI aufgezeigt. Länder und Technologieunternehmen auf der ganzen Welt sind sich nun der Macht bewusst, die KI besitzt, wenn sie nicht kontrolliert und gesteuert wird.
Wo stehen wir jetzt?
KI-Regulierungen, Ethik und Kontrollmaßnahmen sind zu gängigen Diskussionspunkten in den weltweiten Tech-Foren geworden. In den letzten drei Jahren hat die verantwortungsvolle KI (Responsible AI, RAI) ethisch einwandfreie Entscheidungsträger dazu veranlasst, weltweit Richtlinien einzuführen oder Mandate durchzusetzen. So hat die
Die USA haben die Aufmerksamkeit der Unternehmen auf die Algorithmen gelenkt, die die Grundlage für KI-Programme bilden. Der Algorithmic Accountability Act of 2022 fordert Unternehmen auf, automatisierte Systeme zu analysieren, bevor sie sie verwenden oder verkaufen. Das Gesetz zielt darauf ab, ein transparentes Umfeld zu schaffen, das es den Verbrauchern ermöglicht, beim Kauf von Systemen, die wichtige Aktionen automatisieren, fundierte Entscheidungen zu treffen. Auch die von Singapur, Kanada, China und Indien erlassenen Vorschriften zielen darauf ab, dass Unternehmen ihre Verantwortung bei der Implementierung von KI verstehen.
Unternehmen, die sich mit KI beschäftigen, haben ebenfalls begonnen, verschiedene Ansätze zu verfolgen, um das Vertrauen ihrer Kunden zu gewinnen. So hat zum Beispiel eines der großen Tech-Unternehmen das AI, Ethics, and Effects in Engineering and Research (AETHER) Committee, das Office of Responsible AI (ORA) und Responsible AI Strategy in Engineering (RAISE)
Wir sind jetzt auf dem richtigen Weg, um eine Übernahme durch die KI zu verhindern.
Wie entwickelt sich der Markt?
Der wachsende Wettbewerb bei der Einführung von KI-Chatbots, wie ChatGPT und dem neueren Bard, macht die Fähigkeiten der Technologie für die breite Masse sichtbar. Während diese Bots derzeit nur textbasierte Tools sind, die automatisch das Internet durchsuchen können, zeigen sie die Fähigkeiten der KI bei der Entscheidungsfindung auf der Grundlage von menschlichen Eingaben und Genehmigungen. In Zukunft könnten auch die Genehmigungen automatisiert werden, so dass das KI-Programm in die Lage versetzt wird, eigenständig Entscheidungen zu treffen. Hier kann es zu Fehleinschätzungen kommen, die zu Verzerrungen führen und unangemessene Aktionen auslösen.
Während Unternehmen also Vorteile aus dem Einsatz von KI-Programmen ziehen, gewinnt RAI mehr denn je an Bedeutung, um die drohende Übernahme zu verhindern. Führende Unternehmen bemühen sich um eine Vereinheitlichung der ethischen Regelwerke. Die EU und die USA sind dabei, die KI-Vorschriften anzugleichen und einen gemeinsamen Rahmen für das Risikomanagement zu entwickeln, um KI-Modelle vertrauenswürdig zu machen. Zukunftsorientierte Unternehmen sind dabei, die Prinzipien einer vertrauenswürdigen und handlungsfähigen KI in Geschäftsanwendungen zu verankern.
Die Prinzipien basieren auf der Wahrung von Fairness, Konsistenz, Erklärbarkeit, Datenschutz, Robustheit und Verantwortlichkeit der Trainingsdaten und Algorithmen, die die Bausteine des KI-Systems sind. Das Problem besteht darin, diese Prinzipien in das Programm einzubetten. Dies erfordert ein ausgeklügeltes Verständnis der Modelle des maschinellen Lernens. Derzeit sind nur wenige Unternehmen in der Lage, die Schwellen, an denen KI versagt, wirklich zu verstehen und Maßnahmen zu ergreifen, um sie zu beseitigen. Ein typisches Unternehmen ist immer noch nicht in der Lage, die Probleme bei der Operationalisierung von maschinellen Lernmodellen zu bewältigen, wie z.B. die Erklärbarkeit von Modellen, rassistische Vorurteile und gegnerische KI.
Wohin sollen wir als nächstes gehen?
Es ist an der Zeit, die Dinge selbst in die Hand zu nehmen und dafür zu sorgen, dass das KI-System zuverlässiger, sicherer und effektiver ist. Die folgenden Best Practices ermöglichen es KI-Entwicklern, die Anwendungen zu entwerfen und zu skalieren und gleichzeitig Lücken zu vermeiden, die sich während der Entwicklung in die Algorithmen einschleichen.
Stellen Sie den Menschen in den Mittelpunkt des KI-Designs - Ein menschenzentrierter Ansatz muss ein entscheidender Faktor während des Designprozesses sein. Erstellen Sie eine Vielzahl von Benutzer-Personas und Anwendungsszenarien sowie einen geeigneten Feedback-Kanal, um so viele Perspektiven wie möglich einzubeziehen. Legen Sie die Trainingsdaten und den Algorithmus vollständig offen, um sicherzustellen, dass der Benutzer die Kontrolle und ein vollständiges Verständnis der Ergebnisse des Programms hat.
Demokratisieren Sie Daten mit Metriken - Mehrere Metriken ermöglichen es, dass die Trainingsdaten eine größere Anzahl von Untergruppen repräsentieren und die Überwachung auf eine Vielzahl von Fehlern erleichtern. Erstellen Sie die Metriken anhand des Feedbacks von Benutzerumfragen, wichtiger Leistungsindikatoren und der Raten falsch positiver und negativer Ergebnisse. Die Metriken müssen auch auf den Kontext des Systems und die gewünschten Ergebnisse abgestimmt sein. So müssen beispielsweise Alarmsysteme zur Erkennung von Rauch oder Feuer auf die kleinsten Anzeichen reagieren.
Perfektionieren Sie Ihre Rohdaten - Letztlich sind es die Rohdaten, die es Maschinenmodellen ermöglichen, Erkenntnisse und automatisierte Aktionen zu liefern. Daher ist es von größter Wichtigkeit, die Daten, auf denen die Modelle trainiert werden, im Auge zu behalten. Überprüfen Sie die Datensätze regelmäßig auf Unrichtigkeit, fehlende Werte, Stichprobenzeiträume und Zusammenhänge mit anderen Werten. Sie würden ein selbstfahrendes KI-System, das im Sommer für Straßen in der Stadt trainiert wurde, nicht im Winter auf dem Land einsetzen wollen.
Verstehen Sie Ihre Grenzen und Verantwortlichkeiten - Die inhärente Logik hinter verantwortungsvoller KI besteht darin, zu akzeptieren, dass KI weder unfehlbar noch dauerhaft ist. Die Umstände und Verhaltensweisen werden sich ständig ändern. Der Klimawandel zum Beispiel wird Ihnen hin und wieder einen Strich durch die Rechnung machen - mit Dürren, plötzlichen Bränden, Überschwemmungen und einer veränderten Artenvielfalt an einem bestimmten Ort. In diesem Fall müssen Sie Veränderungen in den Mustern erkennen und kommunizieren, um die Kontrolle über die Ergebnisse des KI-Systems zu gewährleisten. Das Testen, Verfolgen und Aktualisieren des Systems muss in jedem Unternehmen, das KI einsetzt, zu einer regelmäßigen Praxis werden.
Zusammenfassend lässt sich sagen, dass der verantwortungsvolle Aufbau von KI-Systemen die Grundlage für zukünftiges Unternehmenswachstum und Nachhaltigkeit bildet. Eine sorgfältige und ständige Bewertung von Datensätzen und maschinellen Lernmodellen ist für ein ethisches und unvoreingenommenes Geschäftsumfeld unabdingbar. Wir können doch nicht zulassen, dass ein unzuverlässiges KI-Programm Menschen herumfährt, Satelliten manövriert oder einen Patienten behandelt. Oder?
Unsere Ideen
Weitere Artikel

Das EU-Datenschutzgesetz: Ihr Fahrplan von der regulatorischen Belastung zur...
Verwandeln Sie die Einhaltung des EU-Datenschutzgesetzes in einen strategischen Vorteil. Erfahren Sie, wie vernetzte Unternehmen neue Umsätze...
Włodzimierz Marat
Contact


