Blog
AI Promptception - Iteration von GitHub Copilot Prompts für maximale Wirkung

AI Promptception - Iteration von GitHub Copilot Prompts für maximale Wirkung
GitHub Copilot ist ein beeindruckender KI-Assistent, aber er ist nur so gut wie die Anweisungen, die Sie ihm geben. Der Unterschied zwischen einer nützlichen Ausgabe und einem frustrierenden Durcheinander liegt oft darin, wie gut Sie Ihre Anfrage strukturieren.
In diesem Artikel wird anhand von Beispielen aus der Praxis untersucht , wie Sie das Prompt-Engineering für GitHub Copilot verbessern können, wobei der Schwerpunkt auf der Playwright-Testautomatisierung liegt.
Anwenderbericht: Der Frust über unvollständige Tests

Stellen Sie sich vor, Sie arbeiten an einem wichtigen Projekt mit knappen Fristen. Sie haben gerade eine React-Komponente PlaneList.tsx
fertiggestellt und nun ist es an der Zeit, mit Playwright Tests zu schreiben. Anstatt jeden Test manuell zu schreiben, beschließen Sie, Zeit zu sparen und GitHub Copilot zu verwenden.
Sie geben eine einfache Aufforderung ein:
_"Erstellen Sie die restlichen Tests für
#file:PlaneList.tsx
basierend aufMARKDOWN_HASH4780711f0338e5f36b9fd55b1c7ce403MARKDOWNHASH
."
Das Ergebnis? Unvollständige, generische Tests, die wichtige Szenarien wie API-Fehler, Randfälle und Benutzerinteraktionen nicht berücksichtigen. Frustriert stellen Sie fest, dass das Problem nicht bei GitHub Copilot liegt, sondern bei der Eingabeaufforderung.
Hier setzt Promptception an: Wir nutzen GitHub Copilot, um bessere Prompts für GitHub Copilot zu schreiben und Frustration in eine leistungsstarke Feedback-Schleife zu verwandeln, die maximale Wirkung erzielt.
Benutzergeschichte auf einem Kanban Board
Beispiel
Titel: _Write Playwright Tests für MARKDOWN_HASH4f7207618391c36af4e89d2518d71770MARKDOWNHASH
- Als Entwickler möchte ich umfassende Playwright-Tests für
MARKDOWN_HASH4f7207618391c36af4e89d2518d71770MARKDOWNHASH
mit GitHub Copilot generieren , damit ich eine robuste Abdeckung für das UI-Rendering, Benutzerinteraktionen und API-Randfälle sicherstellen kann.
Kriterien für die Akzeptanz:
- ✅ Die Tests decken alle wichtigen Komponenten der Benutzeroberfläche und ihre Zustände ab
- ✅ Berücksichtigt Grenzfälle wie leere Listen, große Datensätze und API-Fehler
- ✅ Befolgt die Best Practices von Playwright mit korrekten Assertions und API Mocking
- ✅ Zugängliche Tests mit grundlegenden a11y-Prüfungen
Die erste Aufforderung
Ich musste Playwright-Tests für eine React-Komponente erstellen. Ich begann mit einer einfachen Anfrage:
_"Erstellen Sie die restlichen Tests für
#file:PlaneList.tsx
basierend aufMARKDOWN_HASH4780711f0338e5f36b9fd55b1c7ce403MARKDOWNHASH
."
Zunächst schien dies vernünftig zu sein, aber die Ergebnisse waren unvollständig und allgemein gehalten. GitHub Copilot fehlte der richtige Kontext und die richtige Richtung, was zu Tests führte, die:
- ❌ stimmte nicht vollständig mit der Struktur des Dramatikers überein
- ❌ Verpasste wichtige Testszenarien
- ❌ Enthielt redundante oder irrelevante Behauptungen
Dies veranlasste mich zu einem genaueren Blick auf das, was fehlte.
Prompt Rückblick
Nach der Analyse der Ausgabe habe ich drei wesentliche Schwachstellen in meiner ursprünglichen Aufforderung gefunden:
- ✅ Keine Erwähnung von Playwright - GitHub Copilot unterstützt mehrere Frameworks. Ohne Angabe von Playwright war nicht klar, welche Syntax zu verwenden ist.
- ✅ Unklare Anforderungen an die Testabdeckung - In den generierten Tests fehlten wichtige Fälle wie leere Listen, Filterung und API-Fehler.
- Keine Erwähnung von Best Practices - Playwright-Tests beinhalten Ereignisbehandlung, API-Mocking und Zugänglichkeitsprüfungen. Ohne Anleitung hat Copilot diese nicht erstellt.
An diesem Punkt musste ich meine Eingabeaufforderung verfeinern, um Copilot zu einer besseren Lösung zu führen.
Wie ich GitHub Copilot verwendet habe, um mein Prompt zu verbessern

Manchmal ist der beste Weg, einen besseren Prompt zu schreiben, die Verwendung von GitHub Copilot selbst. Da Copilot auf eine Vielzahl von Codierungsmustern und Best Practices trainiert ist, kann er dabei helfen, einen gut formulierten Prompt zu strukturieren, der klaren technischen Prinzipien folgt.
Schritt 1: Beginnen Sie mit einer einfachen Anfrage
Ich habe zuerst Copilot gefragt:
"Was sind die Schlüsselelemente einer guten KI-Eingabeaufforderung für die Erstellung von Playwright-Tests?"
Copilot antwortete mit einem Überblick über die besten Praktiken, darunter:
- Seien Sie genau, was den Testrahmen betrifft.
- Definieren Sie die zu erwartenden Testszenarien klar und deutlich.
- Verwenden Sie strukturierte Aufzählungspunkte für mehr Klarheit.
Dies bestätigte, dass meine ursprüngliche Eingabeaufforderung zu vage war und die für eine genaue Ausgabe erforderlichen Details fehlten.
Schritt 2: Fragen Sie nach einer besseren Prompt-Struktur
Um eine genauere Anleitung zu erhalten, habe ich meine Anfrage verfeinert:
"Wie kann ich diese Aufforderung verbessern: 'Erstellen Sie die restlichen Tests für PlaneList.tsx basierend auf PlaneList.spec.tsx'?"
Die Antwort des Copiloten schlug vor, etwas hinzuzufügen:
- ✅ Der Testrahmen (Playwright)
- ✅ Die Art der Tests (End-to-End, Komponententests, UI-Interaktionen)
- ✅ Eine Liste der erforderlichen Testfälle
Schritt 3: Iteration mit Verfeinerungen
Da ich nun eine klarere Struktur hatte, bat ich Copilot, die fehlenden Elemente zu ergänzen:
- ✅ "Stellen Sie sicher, dass es Zugänglichkeits- und Leistungskontrollen enthält."
- ✅ "Formulieren Sie es klarer, aber dennoch prägnant."
Ergebnis: Am Ende hatte ich eine präzise, strukturierte und effektive Eingabeaufforderung, die GitHub Copilot leicht verstehen und ausführen konnte.
Prompte Verfeinerung
Anhand des Feedbacks von Copilot habe ich meine Aufforderung umstrukturiert:
Erstellen Sie die verbleibenden End-to-End (E2E) und Komponententests für
#file:PlaneList.tsx
mit Playwright inMARKDOWN_HASH4780711f0338e5f36b9fd55b1c7ce403MARKDOWNHASH
. Sorgen Sie für eine breite Testabdeckung, einschließlich:
- UI-Rendering: Überprüfen Sie Layout und Standardzustände
- Benutzerinteraktionen: Testen Sie Klicks, Filterung und Listenaktualisierungen
- Randfälle: Umgang mit leeren Listen, großen Datensätzen und API-Fehlern
- Leistung und Zugänglichkeit: Stellen Sie ein schnelles Rendering und grundlegende a11y-Prüfungen sicher
- Mocking APIs & Netzwerkanfragen: Antworten für dynamische Inhalte simulieren"
Diese kleine Anpassung hatte eine große Wirkung. GitHub Copilot erzeugt Playwright-Tests, die:
- ✅ Korrekt angewandte Playwright's Testmethoden
- ✅ Enthaltene Szenarien aus der Praxis
- ✅ Befolgte bewährte Praktiken
Die Anatomie eines guten Prompts aufschlüsseln

Ein guter Prompt folgt einer klaren Struktur:
- Klarheit - Geben Sie genau an, was Sie brauchen. Vermeiden Sie vage oder offen formulierte Anfragen.
- Spezifität - Nennen Sie das Framework (Playwright), die Datei (
PlaneList.tsx
) und den Testtyp (E2E, Komponententests). - Absicht - Definieren Sie das Ziel klar und deutlich (z.B. Gewährleistung einer breiten Testabdeckung, Mock-APIs usw.).
- Struktur - Verwenden Sie Aufzählungspunkte oder nummerierte Listen, um verschiedene Testszenarien aufzuschlüsseln.
Iteration für Perfektion
Selbst mit einer verfeinerten Eingabeaufforderung benötigt GitHub Copilot möglicherweise kleine Anpassungen. Anstatt alles neu zu schreiben, helfen Folgeaufforderungen bei der Feinabstimmung der Ausgabe.
Beispiel:
- ✅ _"Refactor tests to use
MARKDOWN_HASHd232de4eb110d73e5d4dfd95f528bdd1MARKDOWNHASH
for shared setup." - Optimieren Sie das API-Mocking, um die Testgeschwindigkeit zu verbessern.
- ✅ "Fügen Sie Aussagen zur Barrierefreiheit für Schaltflächen und Eingaben hinzu."
Diese Mikro-Anpassungen ermöglichen es GitHub Copilot, die Ausgabe zu verbessern, ohne dass eine komplette Neufassung erforderlich ist.
Vermeiden Sie häufige Fallstricke
Selbst erfahrene Entwickler machen beim Prompting Fehler. Hier sind einige Fallstricke, die Sie vermeiden sollten:
-
Zu vage: "Schreiben Sie Tests für diese Datei."
- ✅ Besser: "Schreiben Sie Playwright E2E-Tests für
MARKDOWN_HASH1d308d1a36c61dbfb79c5fa71d379e3bMARKDOWNHASH
, die Filterung, UI-Rendering und API-Handling abdecken."
- ✅ Besser: "Schreiben Sie Playwright E2E-Tests für
-
Zu weit gefasst: "Erzeugen Sie alle benötigten Tests."
- ✅ Besser: "Erzeugen Sie Tests für fehlende Szenarien, einschließlich leerer Listen, großer Datensätze und API-Fehlern."
-
Zu starr: "Schreiben Sie einen Test genau wie diesen."
- ✅ Besser: "Schreiben Sie einen Test, der der gleichen Struktur folgt, aber Benutzerinteraktionen abdeckt."
Warum prompte Technik für Entwickler wichtig ist
GitHub Copilot ist mehr als nur ein Tool zur automatischen Vervollständigung. Richtig eingesetzt, beschleunigt es die Entwicklung, verbessert die Testabdeckung und reduziert den manuellen Aufwand.
Aber es ist keine Zauberei - esbraucht Anleitung. Promptes Engineering ist die Fähigkeit, die einen guten Entwickler von einem großartigen unterscheidet, wenn er KI-unterstützte Programmierung einsetzt.
Abschließende Überlegungen und bewährte Praktiken
Hier finden Sie eine Kurzanleitung, wie Sie bessere Prompts schreiben können:
- ✅ S eien Sie konkret - Nennen Sie das Framework, die Datei und den Testtyp.
- ✅ Verwenden Sie Listen - Gliedern Sie Testfälle auf, anstatt sie in einen Topf zu werfen.
- ✅ Verfeinern Sie iterativ - Verwenden Sie Folgeaufforderungen zur Feinabstimmung der Ausgabe.
- ✅ Vermeiden Sie vage Anfragen - sagen Sie klar und deutlich, was fehlt oder verbessert werden muss.
Mit diesen Techniken können Sie GitHub Copilot in ein präzises Werkzeug zur Erzeugung von sauberem, zuverlässigem Code verwandeln.
Testen Sie noch heute GitHub Copilot für die Verfeinerung Ihrer Prompts und sehen Sie den Unterschied!
Dieser Artikel ist Teil des XPRT. Magazin. Die Goldene Ausgabe! Laden Sie Ihr kostenloses Exemplar hier herunter

Verfasst von

Randy Pagels
I am a DevOps Architect and Trainer at Xebia USA. I lead and educate customers in designing and implementing solutions that adhere to industry standards and DevOps best practices.
Unsere Ideen
Weitere Blogs
Contact