Blog

AI Promptception - Iteration von GitHub Copilot Prompts für maximale Wirkung

Randy Pagels

Aktualisiert Oktober 14, 2025
7 Minuten

AI Promptception - Iteration von GitHub Copilot Prompts für maximale Wirkung


GitHub Copilot ist ein beeindruckender KI-Assistent, aber er ist nur so gut wie die Anweisungen, die Sie ihm geben. Der Unterschied zwischen einer nützlichen Ausgabe und einem frustrierenden Durcheinander liegt oft darin, wie gut Sie Ihre Anfrage strukturieren.

In diesem Artikel wird anhand von Beispielen aus der Praxis untersucht , wie Sie das Prompt-Engineering für GitHub Copilot verbessern können, wobei der Schwerpunkt auf der Playwright-Testautomatisierung liegt.


Anwenderbericht: Der Frust über unvollständige Tests

Stellen Sie sich vor, Sie arbeiten an einem wichtigen Projekt mit knappen Fristen. Sie haben gerade eine React-Komponente PlaneList.tsx fertiggestellt und nun ist es an der Zeit, mit Playwright Tests zu schreiben. Anstatt jeden Test manuell zu schreiben, beschließen Sie, Zeit zu sparen und GitHub Copilot zu verwenden.

Sie geben eine einfache Aufforderung ein:

_"Erstellen Sie die restlichen Tests für #file:PlaneList.tsx basierend auf MARKDOWN_HASH4780711f0338e5f36b9fd55b1c7ce403MARKDOWNHASH."

Das Ergebnis? Unvollständige, generische Tests, die wichtige Szenarien wie API-Fehler, Randfälle und Benutzerinteraktionen nicht berücksichtigen. Frustriert stellen Sie fest, dass das Problem nicht bei GitHub Copilot liegt, sondern bei der Eingabeaufforderung.

Hier setzt Promptception an: Wir nutzen GitHub Copilot, um bessere Prompts für GitHub Copilot zu schreiben und Frustration in eine leistungsstarke Feedback-Schleife zu verwandeln, die maximale Wirkung erzielt.

Benutzergeschichte auf einem Kanban Board

Beispiel

Titel: _Write Playwright Tests für MARKDOWN_HASH4f7207618391c36af4e89d2518d71770MARKDOWNHASH

  • Als Entwickler möchte ich umfassende Playwright-Tests für MARKDOWN_HASH4f7207618391c36af4e89d2518d71770MARKDOWNHASH mit GitHub Copilot generieren , damit ich eine robuste Abdeckung für das UI-Rendering, Benutzerinteraktionen und API-Randfälle sicherstellen kann.

Kriterien für die Akzeptanz:

  • ✅ Die Tests decken alle wichtigen Komponenten der Benutzeroberfläche und ihre Zustände ab
  • ✅ Berücksichtigt Grenzfälle wie leere Listen, große Datensätze und API-Fehler
  • ✅ Befolgt die Best Practices von Playwright mit korrekten Assertions und API Mocking
  • ✅ Zugängliche Tests mit grundlegenden a11y-Prüfungen

Die erste Aufforderung

Ich musste Playwright-Tests für eine React-Komponente erstellen. Ich begann mit einer einfachen Anfrage:

_"Erstellen Sie die restlichen Tests für #file:PlaneList.tsx basierend auf MARKDOWN_HASH4780711f0338e5f36b9fd55b1c7ce403MARKDOWNHASH."

Zunächst schien dies vernünftig zu sein, aber die Ergebnisse waren unvollständig und allgemein gehalten. GitHub Copilot fehlte der richtige Kontext und die richtige Richtung, was zu Tests führte, die:

  • ❌ stimmte nicht vollständig mit der Struktur des Dramatikers überein
  • ❌ Verpasste wichtige Testszenarien
  • ❌ Enthielt redundante oder irrelevante Behauptungen

Dies veranlasste mich zu einem genaueren Blick auf das, was fehlte.


Prompt Rückblick

Nach der Analyse der Ausgabe habe ich drei wesentliche Schwachstellen in meiner ursprünglichen Aufforderung gefunden:

  • Keine Erwähnung von Playwright - GitHub Copilot unterstützt mehrere Frameworks. Ohne Angabe von Playwright war nicht klar, welche Syntax zu verwenden ist.
  • Unklare Anforderungen an die Testabdeckung - In den generierten Tests fehlten wichtige Fälle wie leere Listen, Filterung und API-Fehler.
  • Keine Erwähnung von Best Practices - Playwright-Tests beinhalten Ereignisbehandlung, API-Mocking und Zugänglichkeitsprüfungen. Ohne Anleitung hat Copilot diese nicht erstellt.

An diesem Punkt musste ich meine Eingabeaufforderung verfeinern, um Copilot zu einer besseren Lösung zu führen.


Wie ich GitHub Copilot verwendet habe, um mein Prompt zu verbessern

Manchmal ist der beste Weg, einen besseren Prompt zu schreiben, die Verwendung von GitHub Copilot selbst. Da Copilot auf eine Vielzahl von Codierungsmustern und Best Practices trainiert ist, kann er dabei helfen, einen gut formulierten Prompt zu strukturieren, der klaren technischen Prinzipien folgt.

Schritt 1: Beginnen Sie mit einer einfachen Anfrage

Ich habe zuerst Copilot gefragt:

"Was sind die Schlüsselelemente einer guten KI-Eingabeaufforderung für die Erstellung von Playwright-Tests?"

Copilot antwortete mit einem Überblick über die besten Praktiken, darunter:

  • Seien Sie genau, was den Testrahmen betrifft.
  • Definieren Sie die zu erwartenden Testszenarien klar und deutlich.
  • Verwenden Sie strukturierte Aufzählungspunkte für mehr Klarheit.

Dies bestätigte, dass meine ursprüngliche Eingabeaufforderung zu vage war und die für eine genaue Ausgabe erforderlichen Details fehlten.

Schritt 2: Fragen Sie nach einer besseren Prompt-Struktur

Um eine genauere Anleitung zu erhalten, habe ich meine Anfrage verfeinert:

"Wie kann ich diese Aufforderung verbessern: 'Erstellen Sie die restlichen Tests für PlaneList.tsx basierend auf PlaneList.spec.tsx'?"

Die Antwort des Copiloten schlug vor, etwas hinzuzufügen:

  • ✅ Der Testrahmen (Playwright)
  • ✅ Die Art der Tests (End-to-End, Komponententests, UI-Interaktionen)
  • ✅ Eine Liste der erforderlichen Testfälle

Schritt 3: Iteration mit Verfeinerungen

Da ich nun eine klarere Struktur hatte, bat ich Copilot, die fehlenden Elemente zu ergänzen:

  • "Stellen Sie sicher, dass es Zugänglichkeits- und Leistungskontrollen enthält."
  • "Formulieren Sie es klarer, aber dennoch prägnant."

Ergebnis: Am Ende hatte ich eine präzise, strukturierte und effektive Eingabeaufforderung, die GitHub Copilot leicht verstehen und ausführen konnte.


Prompte Verfeinerung

Anhand des Feedbacks von Copilot habe ich meine Aufforderung umstrukturiert:

Erstellen Sie die verbleibenden End-to-End (E2E) und Komponententests für #file:PlaneList.tsx mit Playwright in MARKDOWN_HASH4780711f0338e5f36b9fd55b1c7ce403MARKDOWNHASH. Sorgen Sie für eine breite Testabdeckung, einschließlich:

  • UI-Rendering: Überprüfen Sie Layout und Standardzustände
  • Benutzerinteraktionen: Testen Sie Klicks, Filterung und Listenaktualisierungen
  • Randfälle: Umgang mit leeren Listen, großen Datensätzen und API-Fehlern
  • Leistung und Zugänglichkeit: Stellen Sie ein schnelles Rendering und grundlegende a11y-Prüfungen sicher
  • Mocking APIs & Netzwerkanfragen: Antworten für dynamische Inhalte simulieren"

Diese kleine Anpassung hatte eine große Wirkung. GitHub Copilot erzeugt Playwright-Tests, die:

  • ✅ Korrekt angewandte Playwright's Testmethoden
  • ✅ Enthaltene Szenarien aus der Praxis
  • ✅ Befolgte bewährte Praktiken

Die Anatomie eines guten Prompts aufschlüsseln

Ein guter Prompt folgt einer klaren Struktur:

  • Klarheit - Geben Sie genau an, was Sie brauchen. Vermeiden Sie vage oder offen formulierte Anfragen.
  • Spezifität - Nennen Sie das Framework (Playwright), die Datei (PlaneList.tsx) und den Testtyp (E2E, Komponententests).
  • Absicht - Definieren Sie das Ziel klar und deutlich (z.B. Gewährleistung einer breiten Testabdeckung, Mock-APIs usw.).
  • Struktur - Verwenden Sie Aufzählungspunkte oder nummerierte Listen, um verschiedene Testszenarien aufzuschlüsseln.

Iteration für Perfektion

Selbst mit einer verfeinerten Eingabeaufforderung benötigt GitHub Copilot möglicherweise kleine Anpassungen. Anstatt alles neu zu schreiben, helfen Folgeaufforderungen bei der Feinabstimmung der Ausgabe.

Beispiel:

  • ✅ _"Refactor tests to use MARKDOWN_HASHd232de4eb110d73e5d4dfd95f528bdd1MARKDOWNHASH for shared setup."
  • Optimieren Sie das API-Mocking, um die Testgeschwindigkeit zu verbessern.
  • "Fügen Sie Aussagen zur Barrierefreiheit für Schaltflächen und Eingaben hinzu."

Diese Mikro-Anpassungen ermöglichen es GitHub Copilot, die Ausgabe zu verbessern, ohne dass eine komplette Neufassung erforderlich ist.


Vermeiden Sie häufige Fallstricke

Selbst erfahrene Entwickler machen beim Prompting Fehler. Hier sind einige Fallstricke, die Sie vermeiden sollten:

  • Zu vage: "Schreiben Sie Tests für diese Datei."

    • Besser: "Schreiben Sie Playwright E2E-Tests für MARKDOWN_HASH1d308d1a36c61dbfb79c5fa71d379e3bMARKDOWNHASH, die Filterung, UI-Rendering und API-Handling abdecken."
  • Zu weit gefasst: "Erzeugen Sie alle benötigten Tests."

    • Besser: "Erzeugen Sie Tests für fehlende Szenarien, einschließlich leerer Listen, großer Datensätze und API-Fehlern."
  • Zu starr: "Schreiben Sie einen Test genau wie diesen."

    • Besser: "Schreiben Sie einen Test, der der gleichen Struktur folgt, aber Benutzerinteraktionen abdeckt."

Warum prompte Technik für Entwickler wichtig ist

GitHub Copilot ist mehr als nur ein Tool zur automatischen Vervollständigung. Richtig eingesetzt, beschleunigt es die Entwicklung, verbessert die Testabdeckung und reduziert den manuellen Aufwand.

Aber es ist keine Zauberei - esbraucht Anleitung. Promptes Engineering ist die Fähigkeit, die einen guten Entwickler von einem großartigen unterscheidet, wenn er KI-unterstützte Programmierung einsetzt.


Abschließende Überlegungen und bewährte Praktiken

Hier finden Sie eine Kurzanleitung, wie Sie bessere Prompts schreiben können:

  • ✅ S eien Sie konkret - Nennen Sie das Framework, die Datei und den Testtyp.
  • Verwenden Sie Listen - Gliedern Sie Testfälle auf, anstatt sie in einen Topf zu werfen.
  • Verfeinern Sie iterativ - Verwenden Sie Folgeaufforderungen zur Feinabstimmung der Ausgabe.
  • Vermeiden Sie vage Anfragen - sagen Sie klar und deutlich, was fehlt oder verbessert werden muss.

Mit diesen Techniken können Sie GitHub Copilot in ein präzises Werkzeug zur Erzeugung von sauberem, zuverlässigem Code verwandeln.

Testen Sie noch heute GitHub Copilot für die Verfeinerung Ihrer Prompts und sehen Sie den Unterschied!

Dieser Artikel ist Teil des XPRT. Magazin. Die Goldene Ausgabe! Laden Sie Ihr kostenloses Exemplar hier herunter

XPRT. #18

Verfasst von

Randy Pagels

I am a DevOps Architect and Trainer at Xebia USA. I lead and educate customers in designing and implementing solutions that adhere to industry standards and DevOps best practices.

Contact

Let’s discuss how we can support your journey.