Blog
7 Dinge, die die Leute in unserem KI-Einführungskurs immer wieder überraschen

Jedes Mal, wenn ich unsere Einführung in die generative KI unterrichte, gibt es mindestens einen Moment, in dem der Raum still wird, jemand die Stirn runzelt und dann sagt: "Moment... was?"
Das Feld der KI ist älter als Sie vielleicht denken
Nach zwanzig Sitzungen habe ich festgestellt, dass dieselben sieben Überraschungen immer wieder auftauchen, und sie verraten viel darüber, wie die Menschen über KI denken. Welche davon kannten Sie bereits?
Bei der Vorstellung sagt fast immer jemand, dass er zu uns gekommen ist, weil "KI in den letzten Jahren wirklich aus dem Nichts aufgetaucht ist". So fühlt es sich auch an. Aber KI ist viel älter als Sie denken, und ChatGPT ist bei weitem nicht die einzige Art von KI, die es gibt.

Künstliche Intelligenz (KI) ist "die Fähigkeit von Computersystemen, Aufgaben auszuführen, die typischerweise mit menschlicher Intelligenz in Verbindung gebracht werden, wie z.B. Lernen, logisches Denken, Problemlösung, Wahrnehmung und Entscheidungsfindung".
Das Forschungsgebiet wurde 1956 gegründet, etwa zu der Zeit, als die ersten Computer aufkamen. Damals wurden Computer hauptsächlich für schwere Berechnungen und das Befolgen einer Reihe festgelegter Regeln verwendet. Doch schon bald fragten sich die Forscher: Könnte ein Computer nicht nur rechnen, sondern auch lernen oder denken?
Es stellte sich heraus, dass es schwieriger war als erhofft, aber ab den 1980er Jahren wurden die Fortschritte immer größer. Zu dieser Zeit kam das maschinelle Lernen auf, die Idee, dass ein Modell, anstatt festen Regeln zu folgen, Muster aus Daten lernen und diese auf zukünftige Szenarien anwenden kann. Plötzlich konnten wir Computern beibringen, das Wetter vorherzusagen, Hauspreise zu schätzen oder sogar Schach zu spielen.
In den letzten zwei Jahrzehnten hat sich die Entwicklung rasant beschleunigt und zur generativen KI (GenAI) geführt. Dieser neueste Zweig des maschinellen Lernens kann brandneue Ideen oder Inhalte wie Text, Musik oder Bilder erzeugen. Für die meisten Menschen schien GenAI wie aus dem Nichts aufzutauchen, als ChatGPT auf den Markt kam. Tatsächlich baut es aber auf mehr als sechzig Jahre Forschung im Bereich der Sprachmodelle auf, die Mitte der 2010er Jahre richtig Fahrt aufnahm.
KI gibt es seit über siebzig Jahren, und wer weiß, was der nächste spannende Durchbruch sein wird.
Sie nutzen KI bereits jeden Tag (auch wenn Sie es nicht bemerken)
Sobald den Leuten klar ist, dass KI nicht einfach über Nacht aufgetaucht ist, bitte ich sie, darüber nachzudenken, wo sie sie im täglichen Leben bereits einsetzen. Nach ein wenig Nachdenken wird die Liste schnell länger.

Netflix-Empfehlungen. Apps, die Vögel anhand ihres Gesangs oder ihrer Fotos erkennen. Fahrspurassistenten in Autos. Supermärkte, die vorhersagen, wie viel Brot sie jeden Tag backen müssen. Intelligente Thermostate, die Ihren Zeitplan lernen.
Es wird schnell klar, dass KI bereits in unseren Alltag Einzug gehalten hat, leise, hilfreich und oft unsichtbar.
Sie sind von KI umgeben, selbst wenn Sie sich dessen nicht bewusst sind.
ChatGPT gibt nie zweimal die gleiche Antwort
In einer der Trainingsübungen bitte ich die Teilnehmer, eine kurze Eingabeaufforderung in ChatGPT zu versuchen und die Ergebnisse mit ihrem Nachbarn zu vergleichen. Zu ihrer Überraschung stimmen die Antworten nicht überein, selbst wenn sie es selbst noch einmal versuchen. Warum ist das so?

Alle Antworten sind unterschiedlich, genau wie diese Äpfel.
Tools wie ChatGPT, Microsoft Copilot und Google Gemini arbeiten alle mit Large Language Models (LLMs). Diese Modelle sind unglaublich gut darin, das nächste logische Wort auf der Grundlage der empfangenen Eingaben vorherzusagen.
Allerdings wählt das Modell nicht immer das wahrscheinlichste nächste Wort aus. Ein bisschen Zufall ist eingebaut, um die Ergebnisse natürlicher und kreativer zu machen. Ohne sie würde jede Antwort roboterhaft und identisch klingen.
Dieses kleine Zufallselement bedeutet, dass Sie selbst bei exakt gleicher Eingabe jedes Mal ein etwas anderes Ergebnis erhalten.
Jedes Gespräch ist einzigartig, und genau das ist der Punkt.
Sie sollten nicht alles glauben, was ChatGPT sagt
LLMs sind fantastische Geschichtenerzähler. Das Problem ist, dass ihre Geschichten nicht immer wahr sind.
Wenn Sie schon einmal gesehen haben, wie ChatGPT sich etwas ausgedacht hat, das völlig plausibel klang, es aber nicht war, dann waren Sie Zeuge einer so genannten Halluzination: wenn ein Modell selbstbewusst Informationen generiert, die einfach nicht korrekt sind.

Als ich ChatGPT einmal fragte, was es über mich weiß, sagte es mir, ich sei ein Dichter, der an der Universität von Amsterdam arbeitet. Lustig, aber überhaupt nicht wahr.
Eine meiner Studentinnen hatte eine ernstere Erfahrung. Sie hatte ein Haus in Kasachstan geerbt und ChatGPT um Steuerberatung gebeten. Alles, was dort gesagt wurde, klang überzeugend, aber es stellte sich heraus, dass es völlig falsch war und sie am Ende Geld kostete.
Die Leute sind meist verblüfft, wenn sie das hören. Der Text sieht ausgefeilt und professionell aus, so dass er vertrauenswürdig erscheint. Aber denken Sie daran: Das Modell kümmert sich nur um die Vorhersage des nächsten logischen Wortes, nicht darum, ob das, was es sagt, sachlich richtig ist.
Deshalb ist es so wichtig, kritisch zu bleiben. LLMs haben keinen eingebauten Fakten-Checker.
KI kann selbst dann selbstbewusst klingen, wenn sie völlig falsch ist.
ChatGPT ist gut mit Worten, aber schlecht mit Zahlen
Haben Sie schon einmal versucht, ChatGPT dazu zu bringen, eine Berechnung durchzuführen, und ein seltsames Ergebnis erhalten? Sobald Sie verstehen, wie LLMs funktionieren, macht es Sinn.
Unter der Haube berechnen sie nicht wirklich etwas. Sie raten, was eine richtig aussehende Antwort sein könnte, basierend auf Mustern, die sie bereits gesehen haben.

Das überrascht die Leute, denn wir assoziieren mit Computern, dass sie gut in Mathe sind. Aber LLMs sind Sprachmodelle, keine Rechenmodelle.
Durch zusätzliches Training sind sie besser im Umgang mit den Grundrechenarten geworden. Die neuesten Modelle zerlegen Zahlen in verschiedene Einheiten wie 300 + 10 + 7 für 317 und haben viele Multiplikationen gespeichert, damit sie die Antwort "ausrechnen" können. In einigen Fällen verwendet das Modell sogar einen externen Taschenrechner. Die Dinge werden also besser, aber für alles, was komplex ist, ist Ihr treuer Taschenrechner immer noch die beste Wahl.
Wenn es um Wörter geht, fragen Sie ChatGPT. Wenn es um Zahlen geht, fragen Sie zweimal nach.
Meta-Prompting ist der Cheat-Code für bessere KI-Ergebnisse
In diesem Kurs behandeln wir fünfzehn Tipps, um bessere Prompts zu schreiben. Mein persönlicher Favorit, den ich ständig anwende, ist das Meta-Prompting.
Es ist ganz einfach: Anstatt selbst den perfekten Prompt zu schreiben, bitten Sie die KI, Ihnen dabei zu helfen.

Wenn ich ChatGPT zum Beispiel nach "20 abwechslungsreichen Rezepten" frage, könnte es sein, dass ich viele Fleischgerichte bekomme, obwohl ich Vegetarier bin. Ich habe vergessen, diesen Kontext anzugeben.
Der Kontext ist der Hintergrund, den das Modell braucht, um eine brauchbare Antwort zu geben, aber es kann mühsam sein, herauszufinden, was man einbeziehen sollte.
Mit Meta-Prompting können Sie das Modell um Hilfe bitten:
"Bevor Sie eine Antwort generieren, stellen Sie mir Fragen, die Sie zur Klärung der Aufgabe benötigen."
Sie könnte fragen, welche Mahlzeiten ich normalerweise zubereite, was "abwechslungsreicher" für mich bedeutet und welche Geräte ich in meiner Küche habe. Dann beantworte ich einfach die Fragen und die KI erstellt eine viel bessere Eingabeaufforderung für mich.
Sie können auch Meta-Prompting verwenden, um bereits geschriebene Prompts zu verfeinern. Zum Beispiel:
- Hier ist mein Entwurf einer Aufforderung. Wie kann ich sie noch spezifischer oder effektiver gestalten?
- Helfen Sie mir, eine klare, strukturierte Aufforderung für [Aufgabe] zu schreiben.
Es ist ein kleiner Trick, der einen großen Unterschied in der Qualität Ihrer Ergebnisse ausmacht.
Meta-Prompting ist Ihre Abkürzung zu besserer, personalisierter KI-Ausgabe.
Es gibt einige erstaunliche Tools, von denen Sie noch nichts gehört haben
Neben der Texterstellung kann GenAI noch viel mehr, und dieser Teil des Kurses stößt immer auf die größten Reaktionen.
Wir machen ein kurzes "Tool-Speed-Dating", bei dem die Teilnehmer ein paar weniger bekannte Tools ausprobieren und ihre Ergebnisse mit anderen teilen.

Jetzt könnte der Witz, dass "heutzutage jeder einen Podcast hat", tatsächlich wahr werden.
Die meisten Menschen wissen bereits, wie man Texte, Bilder oder Videos erstellt. Aber wie wäre es, wenn Sie aus ein paar Schlüsselwörtern ganze Songs erstellen könnten? Mit Tools wie Suno ist das in dreißig Sekunden möglich. Meine Studenten haben Lieder über ihr Abendessen, ihre Firma und sogar Pokémon erstellt, oft mit lächerlich eingängigen Ergebnissen.
Ein weiterer Favorit ist NotebookLM von Google. Damit können Sie Dokumente hochladen und sie sofort in eine Mind Map, ein Quiz oder sogar einen Podcast verwandeln, in dem zwei KI-Stimmen den von Ihnen hochgeladenen Stoff diskutieren. Es ist, als hätten Sie einen persönlichen Lernpartner, der Ihre Notizen liest und mit Ihnen durchspricht. Perfekt für Leute, die lieber zuhören als lesen.
Der Witz, dass heutzutage jeder einen Podcast hat, könnte tatsächlich wahr werden.
Neugierig? Nehmen Sie an dem Kurs teil und lassen Sie sich überraschen
Generative KI steckt voller unerwarteter Lektionen, die man am besten entdeckt, wenn man sie selbst ausprobiert.
Diese und weitere Themen können Sie in unserem Kurs Einführung in die generative KI erkunden. Kommen Sie zu Xebia und lernen Sie, wie Sie KI verantwortungsvoll und kreativ einsetzen, verstehen und innovativ nutzen können.
Sind Sie bereit zu sehen, was KI wirklich leisten kann? Melden Sie sich jetzt für den Kurs Einführung in die generative KI von Xebia an.
Verfasst von
Lysanne van Beek
Unsere Ideen
Weitere Blogs
Contact



