Einleitung
Künstliche Intelligenz hat die Softwareentwicklung grundlegend verändert. ChatGPT ist für viele Entwickler zum täglichen Werkzeug geworden – nicht als Ersatz für eigenes Denken, sondern als Produktivitäts-Multiplikator.
Das Problem: Die meisten Entwickler nutzen ChatGPT mit vagen, unstrukturierten Prompts. Das Ergebnis? Generischer Code, ungenaue Antworten und verlorene Zeit.
Die Lösung: Präzise, kontextreiche Prompts, die ChatGPT wie einen erfahrenen Pair-Programming-Partner arbeiten lassen.
In diesem Artikel findest du 50 sofort einsetzbare ChatGPT Prompts, die speziell für Entwickler optimiert sind. Jeder Prompt ist praxiserprobt, enthält Kontext-Platzhalter und liefert strukturierte, verwertbare Ergebnisse.
Tipp: Ersetze die Platzhalter in
[eckigen Klammern]durch deine konkreten Werte. Je mehr Kontext du lieferst, desto besser die Ergebnisse.
Inhaltsverzeichnis
- Code schreiben & generieren (Prompts 1–10)
- Debugging & Fehleranalyse (Prompts 11–18)
- Code Refactoring & Optimierung (Prompts 19–26)
- Testing & Qualitätssicherung (Prompts 27–33)
- Dokumentation & Erklärungen (Prompts 34–40)
- Architektur & Design Patterns (Prompts 41–45)
- DevOps, Deployment & Tooling (Prompts 46–50)
- Praxisbeispiele für Entwickler
- So holst du das Maximum aus ChatGPT Prompts
- FAQ
1. Code schreiben & generieren
Prompt 1 – Funktion nach Spezifikation generieren
Folglich profitierst du von einem besseren Verständnis dieser Konzepte.
Schreibe eine Funktion in [Programmiersprache], die folgende Aufgabe erfüllt:
Aufgabe: [Beschreibung der Aufgabe]
Input: [Beschreibung der Eingabeparameter mit Typen]
Output: [Beschreibung des Rückgabewerts mit Typ]
Randbedingungen: [z.B. Performance, Fehlerbehandlung, Edge Cases]
Füge JSDoc/Docstring-Kommentare hinzu.
Liefere auch 3 Unit-Test-Beispiele.
Somit sparst du Zeit und erhältst qualitativ hochwertigeren Output.
Wann nutzen: Wenn du eine einzelne Funktion mit klar definierten Ein- und Ausgaben brauchst.
Prompt 2 – REST API Endpoint erstellen
Dabei spielen mehrere Faktoren eine wichtige Rolle.
Erstelle einen kompletten REST API Endpoint in [Framework, z.B. Express.js / FastAPI / Spring Boot]:
Methode: [GET/POST/PUT/DELETE]
Route: [z.B. /api/users/:id]
Funktionalität: [Beschreibung]
Datenmodell: [Felder mit Typen]
Validierung: [Welche Felder sind Pflicht? Welche Formate?]
Inkludiere:
- Input-Validierung
- Error Handling mit passenden HTTP Status Codes
- Typisierung (TypeScript / Type Hints)
- Beispiel-Request und -Response
Folglich erhältst du mit diesem Ansatz deutlich bessere Resultate.
Wann nutzen: Beim Erstellen neuer API-Endpunkte, um konsistente Strukturen zu garantieren.
Prompt 3 – Datenbankschema entwerfen
Grundsätzlich gibt es dabei einige Punkte zu beachten.
Entwirf ein relationales Datenbankschema für folgendes System:
System: [z.B. E-Commerce-Shop, Blog-Plattform, Ticket-System]
Hauptentitäten: [z.B. User, Product, Order]
Beziehungen: [z.B. User hat viele Orders, Order hat viele Products]
Liefere:
1. CREATE TABLE Statements (PostgreSQL)
2. Indexe für häufige Queries
3. Ein ER-Diagramm in Textform
4. Beispiel-Queries für die 3 häufigsten Anwendungsfälle
Deshalb empfiehlt es sich, den Prompt schrittweise zu verfeinern.
Wann nutzen: Bei Projektstart oder wenn du ein neues Feature mit Datenbankänderungen planst.
Prompt 4 – React/Vue/Svelte Komponente bauen
Dennoch solltest du einige Besonderheiten beachten.
Erstelle eine [React/Vue/Svelte]-Komponente:
Name: [Komponentenname]
Zweck: [Was soll die Komponente tun?]
Props: [Liste der Props mit Typen und Defaults]
State: [Welchen internen State braucht sie?]
Events: [Welche Events soll sie emittieren?]
Styling: [CSS Modules / Tailwind / Styled Components]
Anforderungen:
- Responsive Design
- Accessibility (ARIA-Labels, Keyboard-Navigation)
- TypeScript-typisiert
- Fehler- und Loading-Zustände behandeln
Wann nutzen: Für konsistente, zugängliche UI-Komponenten.
Prompt 5 – CLI-Tool erstellen
Darüber hinaus bietet dieser Abschnitt konkrete Beispiele und Tipps.
Erstelle ein CLI-Tool in [Node.js / Python / Go]:
Name: [Toolname]
Zweck: [Beschreibung]
Kommandos:
- [command1]: [Beschreibung]
- [command2]: [Beschreibung]
Optionen:
--flag1: [Beschreibung, Default]
--flag2: [Beschreibung, Default]
Anforderungen:
- Argument-Parsing
- Farbige Konsolenausgabe
- Hilfe-Seite (--help)
- Fehlerbehandlung mit Exit-Codes
Im Grunde funktioniert dieser Ansatz mit allen gängigen AI-Tools.
Wann nutzen: Wenn du Automatisierungstools für dein Team oder Projekte brauchst.
Prompt 6 – Datenstruktur implementieren
Somit kannst du direkt mit der Umsetzung beginnen.
Implementiere folgende Datenstruktur in [Programmiersprache]:
Datenstruktur: [z.B. LRU Cache, Trie, Priority Queue, Graph]
Operationen: [z.B. insert, delete, search, get mit Zeitkomplexität]
Constraints: [z.B. Thread-Safety, maximale Größe]
Liefere:
1. Die vollständige Implementierung
2. Big-O-Analyse für jede Operation
3. Unit Tests
4. Einen Vergleich mit der Standard-Library-Alternative (falls vorhanden)
Darüber hinaus lässt sich das Beispiel leicht erweitern.
Wann nutzen: Beim Lernen von Datenstrukturen oder für spezialisierte Anwendungsfälle.
Prompt 7 – Regex-Muster generieren
Im Folgenden findest du alle wichtigen Details dazu.
Erstelle ein Regex-Muster für:
Zweck: [z.B. E-Mail-Validierung, URL-Parsing, Datums-Erkennung]
Gültige Beispiele: [mindestens 3 Beispiele, die matchen sollen]
Ungültige Beispiele: [mindestens 3 Beispiele, die NICHT matchen sollen]
Sprache/Engine: [z.B. JavaScript, Python, PCRE]
Liefere:
1. Das Regex-Pattern
2. Eine Zeile-für-Zeile Erklärung
3. Testcode, der alle Beispiele prüft
4. Bekannte Edge Cases und Limitierungen
Dabei zeigt dieses Beispiel den grundlegenden Ansatz.
Wann nutzen: Regex ist notorisch schwer zu lesen – lass ChatGPT das Pattern generieren und erklären.
→ Teste dein Regex direkt mit unserem Regex Tester Tool
Prompt 8 – Konfigurationsdatei generieren
Ebenso wichtig ist es, die Best Practices zu kennen.
Generiere eine Konfigurationsdatei für [Tool/Framework]:
Tool: [z.B. ESLint, Prettier, Webpack, Docker, Nginx]
Projekt-Typ: [z.B. React SPA, Node.js API, Python Microservice]
Anforderungen:
- [Anforderung 1]
- [Anforderung 2]
- [Anforderung 3]
Erkläre jede wichtige Einstellung mit einem Kommentar.
Wann nutzen: Um schnell projektspezifische Konfigurationen zu erstellen.
Prompt 9 – Algorithmus implementieren
Insbesondere für den Einstieg sind die folgenden Informationen hilfreich.
Implementiere den folgenden Algorithmus in [Programmiersprache]:
Algorithmus: [z.B. Dijkstra, Merge Sort, Binary Search, A*]
Input-Format: [Beschreibung]
Output-Format: [Beschreibung]
Optimierung: [z.B. Speicher, Geschwindigkeit]
Liefere:
1. Die Implementierung mit Kommentaren
2. Zeitkomplexität und Speicherkomplexität
3. Ein durchkommentiertes Beispiel mit Schritt-für-Schritt-Trace
4. Wann man diesen Algorithmus verwenden sollte vs. Alternativen
Grundsätzlich kannst du diesen Prompt an deine Bedürfnisse anpassen.
Prompt 10 – Boilerplate-Code für neues Projekt
Ebenfalls relevant sind die praktischen Anwendungsbeispiele.
Generiere Boilerplate-Code für ein neues Projekt:
Typ: [z.B. REST API, Fullstack App, Microservice, Lambda Function]
Tech-Stack: [z.B. Node.js + Express + TypeScript + Prisma]
Features:
- [Feature 1]
- [Feature 2]
Liefere die Ordnerstruktur als Tree und alle initialen Dateien mit Code.
Inkludiere: Linting, Formatting, .env.example, README.md Vorlage.
Ebenfalls sinnvoll ist es, verschiedene Varianten auszuprobieren.
2. Debugging & Fehleranalyse
Prompt 11 – Fehlermeldung analysieren
Natürlich gibt es dabei verschiedene Herangehensweisen.
Analysiere diese Fehlermeldung und hilf mir, sie zu beheben:
Fehlermeldung:
"""
[Vollständige Fehlermeldung / Stack Trace hier einfügen]
"""
Kontext:
- Sprache/Framework: [z.B. Python 3.11 / Django 4.2]
- Was ich versuche: [Beschreibung]
- Was ich bereits probiert habe: [Was hast du schon versucht?]
Liefere:
1. Ursachenanalyse
2. Konkreten Fix mit Code
3. Erklärung, warum der Fehler aufgetreten ist
4. Wie man diesen Fehler in Zukunft vermeidet
Weiterhin ist es ratsam, die Ergebnisse immer kritisch zu prüfen.
Wann nutzen: Bei kryptischen Fehlermeldungen oder tief verschachtelten Stack Traces.
→ Lies auch unseren AI Workflow für Debugging
Prompt 12 – Performance-Bottleneck finden
Tatsächlich ist dieser Bereich besonders wichtig für Entwickler.
Analysiere diesen Code auf Performance-Probleme:
[Code hier einfügen]
Kontext:
- Input-Größe: [z.B. 100.000 Datensätze]
- Aktuelle Laufzeit: [z.B. 45 Sekunden]
- Gewünschte Laufzeit: [z.B. unter 2 Sekunden]
Liefere:
1. Identifizierte Bottlenecks mit Erklärung
2. Optimierten Code
3. Vorher/Nachher Big-O-Vergleich
4. Profiling-Tipps für diese Sprache
Prompt 13 – Memory Leak diagnostizieren
Allerdings gibt es einige wichtige Unterschiede zu beachten.
Ich vermute ein Memory Leak in meiner Anwendung:
Sprache/Runtime: [z.B. Node.js / Java / Python]
Symptome: [z.B. Speicherverbrauch steigt stetig, OOM nach X Stunden]
Relevanter Code:
"""
[Code hier einfügen]
"""
Hilf mir:
1. Mögliche Ursachen im Code identifizieren
2. Diagnostik-Schritte (Profiling-Tools, Heap Dumps)
3. Konkreten Fix für die wahrscheinlichste Ursache
4. Best Practices zur Vermeidung von Memory Leaks in [Sprache]
Natürlich solltest du den generierten Code vor dem Einsatz testen.
Prompt 14 – Race Condition analysieren
Außerdem gibt es hilfreiche Tools, die dich dabei unterstützen.
Ich habe eine Race Condition in meinem Code:
Sprache: [z.B. Go / Java / Python]
Code:
"""
[Code hier einfügen]
"""
Symptome: [z.B. Inkonsistente Ergebnisse, Deadlocks, Daten-Korruption]
Erkläre:
1. Wo genau die Race Condition auftritt
2. Ein Timeline-Diagramm des problematischen Ablaufs
3. Einen korrigierten Code mit Synchronisation
4. Alternativer Ansatz ohne shared mutable State
Dementsprechend ist eine manuelle Überprüfung empfehlenswert.
Prompt 15 – Build- oder Kompilierfehler beheben
Zusammenfassend lässt sich sagen, dass dies ein zentraler Aspekt ist.
Mein Build schlägt fehl. Hier sind die Details:
Build-Tool: [z.B. Webpack, Gradle, CMake, Cargo]
Fehlerlog:
"""
[Build-Log hier einfügen]
"""
Relevante Config-Dateien:
"""
[package.json / build.gradle / Cargo.toml etc.]
"""
Was hat sich zuletzt geändert: [z.B. Dependency Update, neue Datei hinzugefügt]
Liefere eine schrittweise Lösung.
Tatsächlich lässt sich dieser Code direkt in dein Projekt übernehmen.
Prompt 16 – Daten-Inkonsistenz debuggen
Im Grunde vereinfacht dieser Ansatz den gesamten Workflow erheblich.
Ich habe eine Daten-Inkonsistenz in meiner Anwendung:
Erwartetes Verhalten: [Beschreibung]
Tatsächliches Verhalten: [Beschreibung]
Relevanter Code (Datenzugriff):
"""
[Code hier einfügen]
"""
Datenbank-Queries die ausgeführt werden:
"""
[SQL oder ORM-Queries]
"""
Hilf mir, die Ursache zu finden und zu beheben.
Prompt 17 – API-Fehler debuggen
Weiterhin ist es wichtig, die Grundlagen zu verstehen.
Mein API-Call schlägt fehl:
Endpoint: [URL]
Methode: [GET/POST/etc.]
Request Headers: [relevante Header]
Request Body: [falls vorhanden]
Response Status: [z.B. 403, 500, CORS Error]
Response Body:
"""
[Response hier einfügen]
"""
Client-Code:
"""
[Code hier einfügen]
"""
Was ist die Ursache und wie behebe ich es?
Außerdem kannst du den Prompt für verschiedene Programmiersprachen anpassen.
Prompt 18 – Log-Analyse
Vor allem für den praktischen Einsatz sind diese Informationen wertvoll.
Analysiere diese Logdatei und identifiziere Probleme:
"""
[Log-Einträge hier einfügen]
"""
Kontext: [z.B. Production Server, nach Deployment, nach Traffic-Spike]
Liefere:
1. Zusammenfassung der Probleme nach Schweregrad
2. Root-Cause-Analyse für das kritischste Problem
3. Empfohlene Maßnahmen (sofort + langfristig)
4. Monitoring-Regeln, die diese Probleme früh erkennen
Insbesondere die Struktur des Prompts ist dabei entscheidend für gute Ergebnisse.
3. Code Refactoring & Optimierung
Prompt 19 – Code Review durchführen
Dementsprechend solltest du die folgenden Aspekte kennen.
Führe ein Code Review für den folgenden Code durch:
"""
[Code hier einfügen]
"""
Bewerte nach:
1. Lesbarkeit und Naming
2. SOLID-Prinzipien
3. Error Handling
4. Performance
5. Security
6. Testbarkeit
Für jedes gefundene Problem: Schweregrad (Critical/Major/Minor), Erklärung und konkreter Verbesserungsvorschlag mit Code.
Vor allem die detaillierten Anweisungen sorgen für präzisere Ergebnisse.
→ Mehr dazu in unserem AI Code Review Workflow
Prompt 20 – Legacy-Code modernisieren
Deshalb lohnt es sich, dieses Thema genauer zu betrachten.
Modernisiere diesen Legacy-Code:
Aktueller Code ([alte Version/Stil]):
"""
[Code hier einfügen]
"""
Ziel-Version/Standards: [z.B. ES2024, Python 3.12, Java 21]
Anforderungen:
- Moderne Syntax nutzen
- Deprecated APIs ersetzen
- Type Safety hinzufügen
- Verbesserte Fehlerbehandlung
Liefere den modernisierten Code mit Erklärung der Änderungen.
→ Unser AI Refactoring Guide für Entwickler geht hier in die Tiefe.
Prompt 21 – Funktion in kleinere Einheiten aufteilen
Außerdem gibt es hilfreiche Tools, die dich dabei unterstützen.
Diese Funktion ist zu groß und macht zu viele Dinge. Refactore sie:
"""
[Code hier einfügen]
"""
Ziele:
- Single Responsibility Principle
- Jede Funktion maximal 20 Zeilen
- Sprechende Funktionsnamen
- Gleiche Funktionalität, bessere Struktur
Liefere den refactored Code und erkläre die Aufteilung.
Dabei zeigt dieses Beispiel den grundlegenden Ansatz.
Prompt 22 – Design Pattern anwenden
Deshalb lohnt es sich, dieses Thema genauer zu betrachten.
Refactore diesen Code mit einem passenden Design Pattern:
"""
[Code hier einfügen]
"""
Probleme mit dem aktuellen Code:
- [z.B. zu viele if/else, schwer erweiterbar, Code-Duplizierung]
Schlage das passende Design Pattern vor, erkläre warum es hier passt, und liefere den refactored Code.
Vor allem die detaillierten Anweisungen sorgen für präzisere Ergebnisse.
Prompt 23 – Datenbank-Queries optimieren
Weiterhin ist es wichtig, die Grundlagen zu verstehen.
Optimiere diese Datenbank-Queries:
"""sql
[Queries hier einfügen]
"""
Tabellenschema:
"""sql
[CREATE TABLE Statements oder Beschreibung]
"""
Datenmenge: [z.B. 5 Millionen Zeilen in der Haupttabelle]
Aktueller EXPLAIN Output (falls vorhanden):
"""
[EXPLAIN hier einfügen]
"""
Liefere:
1. Optimierte Queries
2. Empfohlene Indexe
3. EXPLAIN-Analyse der Verbesserung
4. Alternative Ansätze (z.B. Materialized Views, Caching)
Dementsprechend ist eine manuelle Überprüfung empfehlenswert.
Prompt 24 – TypeScript-Typen verbessern
Grundsätzlich gibt es dabei einige Punkte zu beachten.
Verbessere die TypeScript-Typisierung in diesem Code:
"""typescript
[Code hier einfügen]
"""
Aktuell: [z.B. zu viele `any`, fehlende Generics, union types nicht genutzt]
Ziele:
- Strenge Typisierung (kein any)
- Nutze Generics wo sinnvoll
- Discriminated Unions für State
- Utility Types (Partial, Pick, Omit) wo passend
Prompt 25 – Error Handling verbessern
Vor allem für den praktischen Einsatz sind diese Informationen wertvoll.
Verbessere das Error Handling in diesem Code:
"""
[Code hier einfügen]
"""
Aktuell: [z.B. leere catch-Blöcke, generische Fehlermeldungen, keine Retry-Logik]
Implementiere:
1. Custom Error Classes/Types
2. Spezifisches Fangen von erwarteten Fehlern
3. Sinnvolles Logging
4. Retry-Logik mit Exponential Backoff (falls sinnvoll)
5. User-facing Fehlermeldungen
Insbesondere die Struktur des Prompts ist dabei entscheidend für gute Ergebnisse.
Prompt 26 – Code DRY machen
Ebenfalls relevant sind die praktischen Anwendungsbeispiele.
In diesem Code gibt es Duplikation. Refactore ihn DRY:
"""
[Code hier einfügen]
"""
Identifiziere:
1. Duplizierte Logik
2. Ähnliche Muster, die abstrahiert werden können
3. Magic Numbers / Strings, die als Konstanten extrahiert werden sollten
Liefere den refactored Code. Überabstraktion ist schlimmer als Duplikation – balanciere sorgfältig.
Darüber hinaus lässt sich das Beispiel leicht erweitern.
4. Testing & Qualitätssicherung
Prompt 27 – Unit Tests generieren
Im Folgenden findest du alle wichtigen Details dazu.
Schreibe umfassende Unit Tests für diese Funktion/Klasse:
"""
[Code hier einfügen]
"""
Test-Framework: [z.B. Jest, pytest, JUnit, Go testing]
Teste:
1. Happy Path (normale Eingaben)
2. Edge Cases (leere Eingaben, Grenzen, Nullwerte)
3. Fehlerszenarien (ungültige Eingaben, Exceptions)
4. Boundary Values
Strukturiere die Tests nach dem AAA-Pattern (Arrange, Act, Assert).
Verwende beschreibende Testnamen im Format: "should [expected behavior] when [condition]"
Im Grunde funktioniert dieser Ansatz mit allen gängigen AI-Tools.
→ Lies dazu unseren Guide AI Tools für automatisierte Tests
Prompt 28 – Integration Tests erstellen
Darüber hinaus bietet dieser Abschnitt konkrete Beispiele und Tipps.
Erstelle Integration Tests für diese API-Route:
Route: [z.B. POST /api/users]
Code:
"""
[Controller/Handler-Code hier einfügen]
"""
Test-Framework: [z.B. Supertest + Jest, pytest + httpx]
Teste:
1. Erfolgreicher Request mit korrekten Daten
2. Validierungsfehler (fehlende/ungültige Felder)
3. Authentifizierung/Autorisierung
4. Datenbankinteraktion (Setup/Teardown)
5. Concurrent Requests
Prompt 29 – E2E-Test-Szenario schreiben
Natürlich gibt es dabei verschiedene Herangehensweisen.
Schreibe E2E-Tests für folgenden User Flow:
User Story: [z.B. "Als User möchte ich mich registrieren und einloggen können"]
Schritte:
1. [Schritt 1]
2. [Schritt 2]
3. [Schritt 3]
Framework: [z.B. Playwright, Cypress, Selenium]
Seiten-Struktur: [relevante HTML-Elemente/IDs/Klassen]
Inkludiere:
- Page Object Model
- Assertions für jeden Schritt
- Cleanup nach dem Test
- Screenshot bei Fehler
Folglich erhältst du mit diesem Ansatz deutlich bessere Resultate.
Prompt 30 – Testdaten generieren
Im Grunde vereinfacht dieser Ansatz den gesamten Workflow erheblich.
Generiere realistische Testdaten für:
Entity: [z.B. User, Product, Order]
Schema:
"""
[Schema/Interface/Modell hier einfügen]
"""
Liefere:
1. 10 valide Testdatensätze als JSON-Array
2. 5 ungültige Datensätze (mit Erklärung warum ungültig)
3. Eine Factory-Funktion, die beliebig viele Testdaten generiert
4. Edge-Case-Datensätze (Unicode, Sonderzeichen, Maximalwerte)
Außerdem kannst du den Prompt für verschiedene Programmiersprachen anpassen.
→ Formatiere die JSON-Testdaten mit unserem JSON Formatter
Prompt 31 – Mock/Stub-Objekte erstellen
Insbesondere für den Einstieg sind die folgenden Informationen hilfreich.
Erstelle Mocks und Stubs für folgende Dependencies in meinen Tests:
Code der zu testenden Klasse:
"""
[Code hier einfügen]
"""
Dependencies die gemockt werden müssen:
- [z.B. DatabaseService, HttpClient, EmailService]
Framework: [z.B. Jest, unittest.mock, Mockito]
Liefere:
1. Mock-Implementierungen für jede Dependency
2. Beispiel wie die Mocks im Test verwendet werden
3. Verifikation der Aufrufe (wurde Methode X mit Argument Y aufgerufen?)
Natürlich solltest du den generierten Code vor dem Einsatz testen.
Prompt 32 – Testabdeckung verbessern
Somit kannst du direkt mit der Umsetzung beginnen.
Analysiere diesen Code und identifiziere nicht getestete Pfade:
Produktionscode:
"""
[Code hier einfügen]
"""
Bestehende Tests:
"""
[Test-Code hier einfügen]
"""
Liefere:
1. Welche Code-Pfade/Branches sind nicht getestet?
2. Fehlende Tests mit Code
3. Priorisierung: Welche Tests sind am wichtigsten?
Prompt 33 – Property-Based Tests erstellen
Zusammenfassend lässt sich sagen, dass dies ein zentraler Aspekt ist.
Erstelle Property-Based Tests für diese Funktion:
"""
[Code hier einfügen]
"""
Framework: [z.B. fast-check, Hypothesis, QuickCheck]
Identifiziere:
1. Invarianten die immer gelten müssen
2. Geeignete Generatoren für die Eingabewerte
3. Gegenbeispiel-Shrinking Setup
Weiterhin ist es ratsam, die Ergebnisse immer kritisch zu prüfen.
5. Dokumentation & Erklärungen
Prompt 34 – Code erklären lassen
Folglich profitierst du von einem besseren Verständnis dieser Konzepte.
Erkläre diesen Code Schritt für Schritt:
"""
[Code hier einfügen]
"""
Zielgruppe: [z.B. Junior-Entwickler, fachfremder Stakeholder, erfahrener Entwickler einer anderen Sprache]
Erkläre:
1. Was macht der Code auf hoher Ebene?
2. Schritt-für-Schritt Durchlauf
3. Warum wurden bestimmte Entscheidungen getroffen?
4. Welche Konzepte muss man kennen, um den Code zu verstehen?
Deshalb empfiehlt es sich, den Prompt schrittweise zu verfeinern.
Wann nutzen: Beim Onboarding in ein fremdes Projekt oder beim Verstehen von Bibliotheks-Code.
Prompt 35 – API-Dokumentation generieren
Tatsächlich ist dieser Bereich besonders wichtig für Entwickler.
Generiere eine vollständige API-Dokumentation für:
"""
[Code hier einfügen – Controller/Routes/Handlers]
"""
Format: [z.B. OpenAPI 3.0 YAML, Markdown, JSDoc]
Für jeden Endpoint:
- Methode und URL
- Beschreibung
- Request-Parameter (Path, Query, Body) mit Typen
- Response-Codes mit Beispiel-Bodies
- Authentifizierung
- Rate Limits (falls zutreffend)
- cURL-Beispiel
Tatsächlich lässt sich dieser Code direkt in dein Projekt übernehmen.
→ Mehr dazu in Wie Entwickler AI für Dokumentation nutzen
Prompt 36 – README.md erstellen
Dennoch solltest du einige Besonderheiten beachten.
Erstelle eine professionelle README.md für mein Projekt:
Projektname: [Name]
Beschreibung: [Was macht das Projekt?]
Tech-Stack: [Technologien]
Zielgruppe: [Wer nutzt es?]
Inkludiere:
- Badges (Build, License, Version)
- Features-Liste
- Screenshot-Platzhalter
- Schnellstart / Installation
- Konfiguration
- API-Referenz (Kurzübersicht)
- Contributing Guide
- License
Prompt 37 – Inline-Kommentare hinzufügen
Allerdings gibt es einige wichtige Unterschiede zu beachten.
Füge sinnvolle Inline-Kommentare zu diesem Code hinzu:
"""
[Code hier einfügen]
"""
Regeln:
- Erkläre das WARUM, nicht das WAS
- Kommentiere komplexe Logik, nicht offensichtlichen Code
- Verwende TODO/FIXME/HACK wo angebracht
- Maximal 1 Kommentar pro 3–5 Zeilen
- Sprache: [Deutsch/Englisch]
Ebenfalls sinnvoll ist es, verschiedene Varianten auszuprobieren.
Prompt 38 – Changelog-Eintrag schreiben
Ebenso wichtig ist es, die Best Practices zu kennen.
Schreibe einen Changelog-Eintrag basierend auf diesen Änderungen:
Git Diff oder Beschreibung der Änderungen:
"""
[Änderungen hier einfügen]
"""
Format: [Keep a Changelog / Conventional Commits]
Version: [Versionsnummer]
Kategorisiere nach: Added, Changed, Deprecated, Removed, Fixed, Security
Grundsätzlich kannst du diesen Prompt an deine Bedürfnisse anpassen.
Prompt 39 – Technisches Konzept schreiben
Dementsprechend solltest du die folgenden Aspekte kennen.
Schreibe ein technisches Konzept (RFC/Design Doc) für:
Feature: [Beschreibung]
Problem: [Welches Problem soll gelöst werden?]
Kontext: [Bestehende Architektur, Constraints, Stakeholder]
Struktur:
1. Zusammenfassung
2. Motivation / Problem Statement
3. Vorgeschlagene Lösung
4. Alternativen die betrachtet wurden
5. Technische Details
6. Migrations-Plan
7. Risiken und Mitigation
8. Akzeptanz-Kriterien
Somit sparst du Zeit und erhältst qualitativ hochwertigeren Output.
Prompt 40 – Commit Messages formulieren
Dabei spielen mehrere Faktoren eine wichtige Rolle.
Formuliere eine gute Commit Message für diese Änderungen:
"""
[Git Diff oder Beschreibung der Änderungen]
"""
Format: Conventional Commits
Regeln:
- Typ: feat/fix/refactor/docs/test/chore
- Scope: [z.B. auth, api, ui]
- Kurze Zusammenfassung (max 72 Zeichen)
- Detaillierte Beschreibung im Body
- Breaking Changes markieren
- Referenz auf Issue/Ticket: [Nummer]
6. Architektur & Design Patterns
Prompt 41 – Architekturentscheidung treffen
Zusammenfassend lässt sich sagen, dass dies ein zentraler Aspekt ist.
Ich muss eine Architekturentscheidung treffen:
Kontext: [Beschreibung des Systems / Projekts]
Frage: [z.B. "Monolith oder Microservices?", "REST oder GraphQL?", "SQL oder NoSQL?"]
Anforderungen:
- [Anforderung 1, z.B. 10.000 concurrent users]
- [Anforderung 2, z.B. Team von 4 Entwicklern]
- [Anforderung 3, z.B. Budget-Constraints]
Erstelle eine Entscheidungsmatrix mit:
1. Optionen
2. Bewertungskriterien (gewichtet)
3. Pro/Contra für jede Option
4. Klare Empfehlung mit Begründung
5. ADR (Architecture Decision Record) im Standard-Format
Folglich erhältst du mit diesem Ansatz deutlich bessere Resultate.
Prompt 42 – System Design erstellen
Darüber hinaus bietet dieser Abschnitt konkrete Beispiele und Tipps.
Erstelle ein System Design für:
System: [z.B. URL Shortener, Chat-App, File Upload Service]
Anforderungen:
- Funktional: [Features]
- Nicht-funktional: [z.B. 99.9% Availability, <100ms Latency, 1M DAU]
Liefere:
1. High-Level-Architektur (als ASCII-Diagramm)
2. Komponentenbeschreibung
3. Datenmodell
4. API Design
5. Skalierungsstrategie
6. Tradeoffs und Begründungen
Natürlich solltest du den generierten Code vor dem Einsatz testen.
Prompt 43 – Event-Driven Architektur entwerfen
Allerdings gibt es einige wichtige Unterschiede zu beachten.
Entwirf eine Event-Driven Architektur für:
Use Case: [z.B. E-Commerce Order Processing]
Events: [z.B. OrderCreated, PaymentProcessed, ShipmentDispatched]
Services: [z.B. OrderService, PaymentService, InventoryService, NotificationService]
Liefere:
1. Event-Katalog mit Schema (JSON)
2. Service-Zuständigkeiten
3. Event-Flow-Diagramm (ASCII)
4. Fehlerbehandlung (Dead Letter Queue, Retry, Compensation)
5. Empfehlung für Message Broker (Kafka, RabbitMQ, etc.)
Tatsächlich lässt sich dieser Code direkt in dein Projekt übernehmen.
Prompt 44 – Migrations-Strategie planen
Vor allem für den praktischen Einsatz sind diese Informationen wertvoll.
Plane eine Migrations-Strategie:
Von: [z.B. Monolith, altes Framework, On-Premise]
Nach: [z.B. Microservices, neues Framework, Cloud]
Systemgröße: [z.B. 200k LOC, 50 Tabellen, 20 API-Endpunkte]
Team: [z.B. 6 Entwickler, davon 2 Senior]
Zeitrahmen: [z.B. 6 Monate]
Liefere:
1. Phasen-Plan (mit Meilensteinen)
2. Strangler Fig Pattern vs. Big Bang Analyse
3. Risiko-Matrix
4. Rollback-Strategie
5. Feature Flags die benötigt werden
6. Monitoring und Validierung zwischen den Phasen
Prompt 45 – Caching-Strategie entwerfen
Dabei spielen mehrere Faktoren eine wichtige Rolle.
Entwirf eine Caching-Strategie für:
System: [Beschreibung]
Datentypen: [z.B. User-Profile, Produkt-Katalog, Session-Daten]
Traffic: [z.B. 50.000 Requests/Minute]
Aktuelle Latenz: [z.B. 800ms Durchschnitt]
Analysiere:
1. Welche Daten sind cachebar? (Häufigkeit, Änderungsrate)
2. Cache-Schichten (Browser, CDN, Application, Database)
3. Invalidierung: TTL vs. Event-basiert
4. Cache-Aside vs. Write-Through vs. Write-Behind
5. Konkrete Redis/Memcached-Konfiguration
6. Cache Stampede Prevention
Ebenfalls sinnvoll ist es, verschiedene Varianten auszuprobieren.
7. DevOps, Deployment & Tooling
Prompt 46 – Dockerfile erstellen
Folglich profitierst du von einem besseren Verständnis dieser Konzepte.
Erstelle ein optimiertes Multi-Stage Dockerfile für:
Anwendung: [z.B. Node.js API, Python ML Service, Go Microservice]
Base Image: [z.B. node:20-alpine, python:3.12-slim]
Build-Schritte: [z.B. npm install, tsc compile, pytest]
Runtime-Anforderungen: [z.B. Port 3000, Environment Variables]
Optimiere für:
- Minimale Image-Größe
- Layer-Caching
- Security (non-root user, keine unnötigen Packages)
- .dockerignore
Dabei zeigt dieses Beispiel den grundlegenden Ansatz.
Prompt 47 – CI/CD Pipeline erstellen
Weiterhin ist es wichtig, die Grundlagen zu verstehen.
Erstelle eine CI/CD Pipeline für:
Plattform: [z.B. GitHub Actions, GitLab CI, Jenkins]
Projekt: [Beschreibung]
Tech-Stack: [z.B. Node.js + React + PostgreSQL]
Stages:
1. Lint & Format Check
2. Unit Tests
3. Integration Tests
4. Build
5. Deploy to Staging
6. E2E Tests on Staging
7. Deploy to Production
Inkludiere:
- Caching für Dependencies
- Parallel Execution wo möglich
- Secrets Management
- Rollback-Mechanismus
- Slack/Teams-Notification bei Fehler
Im Grunde funktioniert dieser Ansatz mit allen gängigen AI-Tools.
Prompt 48 – Monitoring & Alerting Setup
Dementsprechend solltest du die folgenden Aspekte kennen.
Erstelle ein Monitoring & Alerting Setup für:
System: [Beschreibung]
Stack: [z.B. Prometheus + Grafana, Datadog, CloudWatch]
Kritische Metriken:
- [z.B. Response Time, Error Rate, CPU/Memory]
Liefere:
1. Metriken die gesammelt werden sollten (mit Priorität)
2. Dashboard-Layout (welche Panels)
3. Alert-Regeln (Schwellwerte, Eskalation)
4. Runbook für die Top-3-Alerts
5. SLI/SLO-Definitionen
Prompt 49 – Infrastructure as Code
Ebenso wichtig ist es, die Best Practices zu kennen.
Erstelle Infrastructure as Code für:
Cloud: [z.B. AWS, GCP, Azure]
Tool: [z.B. Terraform, Pulumi, CloudFormation]
Infrastruktur:
- [z.B. VPC + Subnets]
- [z.B. ECS/EKS Cluster]
- [z.B. RDS PostgreSQL]
- [z.B. S3 Bucket + CloudFront]
Anforderungen:
- Multi-AZ / High Availability
- Verschlüsselung at rest + in transit
- Least Privilege IAM
Inkludiere: Variablen, Outputs, und tfvars-Beispiel.
Darüber hinaus lässt sich das Beispiel leicht erweitern.
Prompt 50 – Security Audit durchführen
Dennoch solltest du einige Besonderheiten beachten.
Führe ein Security Audit für diesen Code / diese Konfiguration durch:
"""
[Code oder Konfiguration hier einfügen]
"""
Prüfe auf:
1. OWASP Top 10 (Injection, XSS, CSRF, etc.)
2. Authentication / Authorization Schwachstellen
3. Sensitive Daten im Code (API Keys, Passwords)
4. Dependency Vulnerabilities
5. Kryptographische Schwachstellen
6. Rate Limiting / DoS Protection
Für jede gefundene Schwachstelle:
- Schweregrad (Critical / High / Medium / Low)
- CVE-Referenz (falls zutreffend)
- Konkreter Fix mit Code
- Verifizierung dass der Fix funktioniert
Vor allem die detaillierten Anweisungen sorgen für präzisere Ergebnisse.
Praxisbeispiele für Entwickler
Praxisbeispiel 1: Komplettes Feature mit ChatGPT entwickeln
Im Folgenden findest du alle wichtigen Details dazu.
Stell dir vor, du sollst eine Passwort-Reset-Funktion bauen. Statt alles einzeln zu prompten, nutze eine Kette von Prompts:
Schritt 1: Nutze Prompt #3, um das Datenbankschema für password_reset_tokens zu erstellen.
Schritt 2: Nutze Prompt #2, um die API-Endpunkte /api/auth/forgot-password und /api/auth/reset-password zu generieren.
Schritt 3: Nutze Prompt #25, um das Error Handling zu verbessern (Token abgelaufen, ungültig, User nicht gefunden).
Schritt 4: Nutze Prompt #27, um Unit Tests für die komplette Logik zu schreiben.
Schritt 5: Nutze Prompt #35, um die API-Dokumentation zu generieren.
Ergebnis: In 20 Minuten hast du ein vollständig implementiertes, getestetes und dokumentiertes Feature.
Praxisbeispiel 2: Legacy-Code Refactoring Workflow
Grundsätzlich gibt es dabei einige Punkte zu beachten.
Du hast eine 500-Zeilen-Funktion in einem Legacy-Projekt geerbt:
Schritt 1: Nutze Prompt #34, um den Code erklären zu lassen.
Schritt 2: Nutze Prompt #27, um zuerst Tests für das bestehende Verhalten zu schreiben (Safety Net).
Schritt 3: Nutze Prompt #21, um die Funktion in kleinere Einheiten aufzuteilen.
Schritt 4: Nutze Prompt #20, um moderne Syntax und Patterns zu nutzen.
Schritt 5: Nutze Prompt #19, um ein finales Code Review durchzuführen.
Praxisbeispiel 3: Bug-Fixing mit KI-Unterstützung
Tatsächlich ist dieser Bereich besonders wichtig für Entwickler.
Ein Bug-Report kommt rein: „User können sich nicht einloggen, wenn ihr Passwort Sonderzeichen enthält.“
Schritt 1: Nutze Prompt #11 mit der Fehlermeldung aus den Logs.
Schritt 2: Nutze Prompt #7, um das Regex-Pattern für die Passwort-Validierung zu überprüfen.
Schritt 3: Nutze Prompt #30, um Testdaten mit Sonderzeichen zu generieren.
Schritt 4: Nutze Prompt #27, um Regressionstests zu schreiben.
So holst du das Maximum aus ChatGPT Prompts
1. Kontext ist König
Ebenfalls relevant sind die praktischen Anwendungsbeispiele.
Je mehr relevanten Kontext du lieferst, desto besser das Ergebnis. Dazu gehören:
- Programmiersprache und Version
- Ebenfalls framework und Version
- Insbesondere projektstruktur
- Bestehender Code, der relevant ist
- Constraints (Performance, Security etc.)
2. Iterativ vorgehen
Deshalb lohnt es sich, dieses Thema genauer zu betrachten.
Der erste Output ist selten perfekt. Verfeinere:
- „Der Code funktioniert, aber handle auch den Fall, wenn X null ist.“
- „Refactore die Lösung, sodass sie auch für Y funktioniert.“
- „Vereinfache die Implementierung – es muss nicht Z unterstützen.“
3. Rollen zuweisen
Somit kannst du direkt mit der Umsetzung beginnen.
Starte Prompts mit einer Rollenanweisung:
- „Du bist ein Senior Backend Engineer mit 10 Jahren Erfahrung in verteilten Systemen.“
- „Du bist ein Security-Experte, der Code auf Schwachstellen prüft.“
4. Ausgabeformat spezifizieren
Natürlich gibt es dabei verschiedene Herangehensweisen.
Sage ChatGPT genau, wie die Antwort aussehen soll:
- „Antworte in Markdown mit Codeblöcken.“
- Zusätzlich „Erstelle eine Tabelle mit Spalten: Problem, Schweregrad, Fix.“
- „Liefere nur den Code ohne Erklärung.“
5. Chain of Thought erzwingen
Insbesondere für den Einstieg sind die folgenden Informationen hilfreich.
Für komplexe Probleme:
- „Denke Schritt für Schritt.“
- „Analysiere zuerst, bevor du Code schreibst.“
- „Liste zuerst alle möglichen Ursachen auf, dann die wahrscheinlichste.“
FAQ
Kann ChatGPT mich als Entwickler ersetzen?
Im Grunde vereinfacht dieser Ansatz den gesamten Workflow erheblich.
Nein. ChatGPT ist ein Werkzeug, kein Ersatz. Es kann Code generieren, aber nicht den Kontext deines Projekts, die Bedürfnisse deiner User oder die Architektur deines Systems verstehen. Du triffst die Entscheidungen – ChatGPT beschleunigt die Ausführung.
Wie gut ist der von ChatGPT generierte Code?
Außerdem gibt es hilfreiche Tools, die dich dabei unterstützen.
Die Qualität hängt direkt vom Prompt ab. Mit vagen Prompts bekommst du generischen Code. Mit präzisen, kontextreichen Prompts (wie in diesem Artikel) erhältst du Code, der oft nur minimale Anpassungen braucht. Trotzdem: Immer reviewen und testen, bevor du AI-generierten Code in Production übernimmst.
Welches ChatGPT-Modell soll ich für Coding nutzen?
Allerdings gibt es einige wichtige Unterschiede zu beachten.
GPT-4o und GPT-4.5 liefern die besten Ergebnisse für Coding-Aufgaben. GPT-3.5 ist schneller, aber macht häufiger Fehler bei komplexem Code. Für einfache Aufgaben (Regex, Konfigurationen) reicht GPT-4o mini.
Ist es sicher, Firmencode in ChatGPT einzufügen?
Grundsätzlich gibt es dabei einige Punkte zu beachten.
Standardmäßig können die Daten für das Training verwendet werden. Empfehlung:
- Nutze die ChatGPT API (Daten werden nicht für Training genutzt)
- Nutze ChatGPT Enterprise/Team (Datenverarbeitung gemäß Unternehmensvereinbarung)
- Anonymisiere sensiblen Code (ersetze Firmennamen, API-Keys etc.)
- Nutze lokale Alternativen wie Ollama für hochsensiblen Code
Wie vermeide ich Halluzinationen in ChatGPT-Antworten?
Darüber hinaus bietet dieser Abschnitt konkrete Beispiele und Tipps.
- Bitte ChatGPT, Quellen zu nennen
- Prüfe generierten Code immer gegen die offizielle Dokumentation
- Nutze spezifische Versionsnummern (z.B. „React 19″ statt „React“)
- Lass ChatGPT Unsicherheiten explizit benennen: „Falls du dir nicht sicher bist, sage es.“
Wie unterscheidet sich ChatGPT von GitHub Copilot?
Im Grunde vereinfacht dieser Ansatz den gesamten Workflow erheblich.
ChatGPT ist ein Konversations-Tool – du stellst Fragen und bekommst Antworten. GitHub Copilot ist direkt in deinen Editor integriert und schlägt Code inline vor. Beide ergänzen sich: Nutze Copilot für einzelne Zeilen und Funktionen, ChatGPT für Architektur-Fragen, Debugging und Erklärungen.
→ Vergleiche auch Claude vs ChatGPT für Entwickler
Kann ich die Prompts aus diesem Artikel kommerziell nutzen?
Zusammenfassend lässt sich sagen, dass dies ein zentraler Aspekt ist.
Ja. Die Prompts in diesem Artikel sind frei verwendbar. Passe sie an deine Projekte und Workflows an.
Zuletzt aktualisiert: März 2026