Blog

Künstliche Intelligenz für Anwender – Grundlagen – Teil 1 von 5

Xebia
by  Xebia
17 Sep, 2020
Xebia Background Header Wave

Egal ob selbstfahrende Autos oder Gesichtserkennung am Flughafen, das Thema "künstliche Intelligenz" scheint heutzutage omnipräsent zu sein. Während die selbstfahrenden Autos aber noch Zukunftsmusik sind, gibt es bereits heute viele Anwendungen in unserem täglichen Leben, die auf "künstlicher Intelligenz" aka "Artificial Intelligence" basieren: Sortierung von Briefen, Bewertung von CVs im HR oder der freundliche Chatbot an der Kundenhotline.

In dieser Artikelserie wollen wir beleuchten, welche Möglichkeiten und Veränderungen "künstliche Intelligenz" auf den Alltag von Product Owners, DevOps, IT und nicht zuletzt den Anwender schon heute haben kann. Ein Fokus ist dabei der Bereich "Testing". Welche Testingtools arbeiten bereits mit KI (Artikel #3) und was ist anders, wenn man eine KI-gesteuerte Software testen will (Artikel #4)?

Sobald das Thema auf KI kommt, fliegen einem viele Akronyme und Begriffe um die Ohren - KI, ML, Data Science, Neuronale Netzwerke etc.

Daher wollen wir im ersten Schritt eine Begriffsklärung vornehmen:

  • Artificial Intelligence (AI) = Künstliche Intelligenz (KI)
  • Künstliche Intelligenz (KI): Ein Bereich der Informatik, der sich mit der Simulation intelligenten Verhaltens beschäftigt.
  • Machine Learning (ML): Ein Teilbereich von KI, welcher Computeralgorithmen zur Analyse von Daten nutzt, um intelligente Entscheidungen zu treffen, basierend auf dem, was es gelernt hat, ohne explizit dafür programmiert worden zu sein.
  • Deep Learning (DL): Ein spezialisierter Teilbereich des Machine Learning, welcher geschichtete neuronale Netzwerke zur Simulation des menschlichen Entscheidungsprozesses nutzt.
  • Neuronale Netzwerke (NN): Die technische Nachempfindung von biologischen neuronalen Netzwerken. Hierbei bekommt ein Neuron einen oder mehrere Eingabewerte. Je nach Zuverlässigkeit oder Wichtigkeit der Quelle können diese auch noch mit einer Gewichtung belegt werden. Am Neuron ist ein Schwellwert hinterlegt. Liegt die Summe der Eingabewerte über dem Schwellwert, gibt das Neuron eine Eins an die nächste Schicht, sonst eine Null.

Grafik1

  • Data Science ist eine interdisziplinäre Wissenschaft, welche die gesamten Methoden zur Datenverarbeitung beinhaltet. Data Science benutzt KIs, ist aber kein Bestandteil davon. Ein Data Scientist ist also ein Kollege, der sich mit KI, ML, DL, NN und noch vielem mehr auskennt.
Grafik2

Grafik von Olaf Lipinski, SwissQ

Und wenn wir schon bei den Begriffen sind, hier die Methoden, wie eine KI lernen kann.

  1. Supervised Learning: Beim Training der KI wird für jedes Beispiel die richtige Antwort mitgeliefert (labelled data), z. B. hat beim Erlernen von Handschriftenerkennung die Bilddatei, welche eine 3 darstellt, auch ein Label "3".
  2. Unsupervised Learning: Die KI muss ohne Hilfe selber Muster und Regeln in den Trainingsdaten finden (unllabeled data). Hier wird vor allem nach Anhäufungen und Korrelationen gesucht (Clustering), z. B. bei der Analyse von Kundenverhalten.
  3. Reinforced Learning: Prinzip Zuckerbrot und Peitsche. Der KI wird mittels "Belohnung" und "Bestrafung" beigebracht, was eine richtige und was eine falsche Antwort ist. Was die richtigen Antworten gemeinsam haben, muss die KI selber herausfinden.

Ein kurzer Gang durch die Geschichte

Es scheint zwar so, als wenn "künstliche Intelligenz" erst in den letzten Jahren aufgetaucht sei, in Wirklichkeit ist KI aber nicht neu. Alles begann bereits in den 1950er Jahren mit den ersten Entdeckungen von Alan Turing. Es blieb aber über die Jahre eher eine kleine Nische für Insider. Dieses änderte sich schlagartig, als 1997 IBMs "Deep Blue" den Weltmeister Gary Kasparov in einem regulären 6-Spiele-Turnier unter Wettkampfbedingungen im Schach schlug.

Mit der stetig steigenden Verarbeitungsgeschwindigkeit der Hardware bei gleichzeitig sinkenden Kosten können im 21. Jahrhundert plötzlich KIs mit einer Rechenpower gebaut werden, die vorher nicht möglich war. 2011 meldet sich Apples "Siri" zu Wort – KI für den Normalbürger ist plötzlich Realität und war "Computer, Licht an" bei "Raumschiff Enterprise" noch pure Science-Fiction, ist es heute für viele kleine Kinder normaler Alltag, wenn sie mit Amazons Alexa reden.

Grafik3

Grafik: Olaf Lipinski, SwissQ – Quellen: Wikipdia.org[i], Europe.eu[ii]

Künstliche Intelligenz – was ist anders?

Was unterscheidet denn jetzt die "Künstliche Intelligenz" von einem Cloud-Computer oder dem PC auf dem Schreibtisch? Der grosse Unterschied ist, dass in der "klassischen" Informatik mit if-else Statements gearbeitet wird, sei es als Entscheidungsbaum, mittels Taxonomien oder anderen Formen. Das heisst, jeder Vorfall und die dazugehörige Entscheidung muss dem Programm bekannt sein. Diese Methodik funktioniert mit strukturierten Daten aus Datenbanken oder Formularen sehr gut. Aber sobald eine Regel vergessen wird oder mehrdeutig ist, ist dieses System am Limit – Fehlermeldungen oder falsche Ergebnisse sind die Folge.

An diesem Punkt kommt die KI ins Spiel. Diese kann mit unstrukturierten Daten und mit mehrdeutigen Begriffen im Kontext umgehen. Das ist der Grund, warum man bei einer Google-Suche nach "Golf Rad", "Golf Grün" und "Golf Neapel" mal Autoteile, mal Golfplätze und -ausrüstung und mal Reisen angeboten bekommt.

Googles KI ist auch recht gut im Natural Language Processing (NLP). Man kann in Youtube Untertitel zu den Videos zuschalten. Bei Eigennamen kann es manchmal noch recht witzig werden, aber generell ist die Genauigkeit beeindruckend. Mit dieser Technologie kann man Hörbehinderten plötzlich ganz neue Welten im Alltag öffnen (Stichwort: Barrierefreiheit).

Ein anderer Anwendungsbereich, der uns alle betrifft, sind Spamfilterr. Es ist noch gar nicht so lange her, dass ein grosser Teil der eingehenden Emails Spam waren, erinnern Sie sich noch?

2015 landeten, dank eines KI-Spamfilters, nur noch 0,1 % der Spam-Emails in Gmail-Konten, wobei die Rate der Falsch-Positiven nur noch 0,05% betrug[iii].

Was macht eine KI anders, um diese Ergebnisse liefern zu können? Der Aufbau ist dem menschlichen Gehirn nachempfunden (Stichwort: Neuronale Netze). Es gibt keinen explizit vorprogrammierten Weg mehr, sondern die KI "versteht" Regeln und kann diese ableiten.

Dafür wird die Eingabe in kleine Bereiche aufgeteilt, zum Beispiel wird ein Bild von einem eingescannten Buchstaben in viele kleine 3x3 Pixel grosse Felder zerlegt. Jedes Feld wird mit "hell" oder "dunkel" bewertet und der nächsten neuronalen Schicht als Eingabe übergegeben. Diese Schicht betrachtet vielleicht helle und dunkle Felder in relativer Position zum Nachbarn und übergibt dieses Ergebnis wiederum an die nächste Schicht usw., bis am Ende ein Ergebnis herauskommt, das zum Beispiel "Buchstabe A mit 93%-iger Sicherheit" lautet.

Um die Bewertung möglichst korrekt vornehmen zu können, muss die KI vorher trainiert werden. Je mehr qualitativ hochwertige Trainingsdaten zur Verfügung stehen, desto akkurater ist das Endergebnis. Qualität bedeutet hier "verschiedenartige Daten". Wenn die Trainingsdaten bei der Schriftenerkennung nur von rechtshändigen Erstklässlern kommen, dann wird die Genauigkeit bei einem Text von einer 60-jährigen Linkshänderin wahrscheinlich eher zufällig sein.

Für allgemeine Themen wurden daher bereits grosse qualifizierte Datenbestände aufgebaut. Die MNIST-Datenbank enthält u. a. 60.000 Trainingsdaten und 10.000 Testdaten von handgeschriebenen Zahlen, die frei zugänglich sind.

Nach diesem ersten kurzen Einblick in das Thema "künstliche Intelligenz" werden wir im nächsten Artikel dieser Serie zeigen, wo KI-gesteuerte Software schon überall im Einsatz ist.

Dieser Artikel ist eine Gemeinschaftsarbeit von Yannick Galeuchet, Wilhelm Kapp, Olaf Lipinski und Dejan Husrefovic; SwissQ Consulting, Juni 2020

Quellen:

[i] Timeline of artificial intelligence
, geprüft am 24.05.2020

[iii] Gmail statistics, geprüft am 24.05.2020

Questions?

Get in touch with us to learn more about the subject and related solutions