Kernprinzipien
Prägnanz ist der Schlüssel
Das Kontextfenster ist ein öffentliches Gut. Ihr Skill teilt sich das Kontextfenster mit allem anderen, das Claude wissen muss, einschließlich:- Der Systemaufforderung
- Der Gesprächsverlauf
- Der Metadaten anderer Skills
- Ihrer eigentlichen Anfrage
- „Braucht Claude diese Erklärung wirklich?”
- „Kann ich davon ausgehen, dass Claude das weiß?”
- „Rechtfertigt dieser Absatz seine Token-Kosten?”
Legen Sie angemessene Freiheitsgrade fest
Passen Sie die Spezifität an die Zerbrechlichkeit und Variabilität der Aufgabe an. Hohe Freiheit (textbasierte Anweisungen): Verwenden Sie, wenn:- Mehrere Ansätze gültig sind
- Entscheidungen vom Kontext abhängen
- Heuristiken den Ansatz leiten
- Ein bevorzugtes Muster existiert
- Einige Variation akzeptabel ist
- Konfiguration das Verhalten beeinflusst
- Operationen zerbrechlich und fehleranfällig sind
- Konsistenz kritisch ist
- Eine bestimmte Reihenfolge befolgt werden muss
- Schmale Brücke mit Klippen auf beiden Seiten: Es gibt nur einen sicheren Weg nach vorne. Geben Sie spezifische Schutzvorrichtungen und genaue Anweisungen (niedrige Freiheit). Beispiel: Datenbankmigrationen, die in genauer Reihenfolge ausgeführt werden müssen.
- Offenes Feld ohne Gefahren: Viele Wege führen zum Erfolg. Geben Sie eine allgemeine Richtung vor und vertrauen Sie Claude, den besten Weg zu finden (hohe Freiheit). Beispiel: Code-Reviews, bei denen der Kontext den besten Ansatz bestimmt.
Testen Sie mit allen Modellen, die Sie verwenden möchten
Skills fungieren als Ergänzungen zu Modellen, daher hängt die Effektivität vom zugrunde liegenden Modell ab. Testen Sie Ihren Skill mit allen Modellen, die Sie verwenden möchten. Testüberlegungen nach Modell:- Claude Haiku (schnell, wirtschaftlich): Bietet der Skill ausreichend Anleitung?
- Claude Sonnet (ausgewogen): Ist der Skill klar und effizient?
- Claude Opus (leistungsstarkes Reasoning): Vermeidet der Skill Überexplizitheit?
Skill-Struktur
YAML-Frontmatter: Das SKILL.md-Frontmatter erfordert zwei Felder:
name:- Maximal 64 Zeichen
- Darf nur Kleinbuchstaben, Zahlen und Bindestriche enthalten
- Darf keine XML-Tags enthalten
- Darf keine reservierten Wörter enthalten: „anthropic”, „claude”
description:- Darf nicht leer sein
- Maximal 1024 Zeichen
- Darf keine XML-Tags enthalten
- Sollte beschreiben, was der Skill tut und wann er verwendet wird
Benennungskonventionen
Verwenden Sie konsistente Benennungsmuster, um Skills leichter referenzierbar und diskutierbar zu machen. Wir empfehlen die Verwendung der Gerundium-Form (Verb + -ing) für Skill-Namen, da dies die Aktivität oder Fähigkeit, die der Skill bietet, klar beschreibt. Denken Sie daran, dass dasname-Feld nur Kleinbuchstaben, Zahlen und Bindestriche verwenden darf.
Gute Benennungsbeispiele (Gerundium-Form):
processing-pdfsanalyzing-spreadsheetsmanaging-databasestesting-codewriting-documentation
- Nominalphrasen:
pdf-processing,spreadsheet-analysis - Aktionsorientiert:
process-pdfs,analyze-spreadsheets
- Vage Namen:
helper,utils,tools - Zu generisch:
documents,data,files - Reservierte Wörter:
anthropic-helper,claude-tools - Inkonsistente Muster in Ihrer Skill-Sammlung
- Die Referenzierung von Skills in Dokumentation und Gesprächen
- Das Verständnis, was ein Skill auf einen Blick tut
- Die Organisation und Suche durch mehrere Skills
- Die Verwaltung einer professionellen, kohärenten Skill-Bibliothek
Schreiben Sie effektive Beschreibungen
Dasdescription-Feld ermöglicht die Skill-Entdeckung und sollte sowohl enthalten, was der Skill tut, als auch wann er verwendet wird.
Schreiben Sie immer in der dritten Person. Die Beschreibung wird in die Systemaufforderung eingefügt, und inkonsistente Perspektive kann zu Entdeckungsproblemen führen.
- Gut: „Verarbeitet Excel-Dateien und generiert Berichte”
- Vermeiden: „Ich kann Ihnen bei der Verarbeitung von Excel-Dateien helfen”
- Vermeiden: „Sie können dies verwenden, um Excel-Dateien zu verarbeiten”
Progressive Disclosure-Muster
SKILL.md dient als Übersicht, die Claude auf Bedarf zu detaillierten Materialien verweist, ähnlich wie ein Inhaltsverzeichnis in einem Onboarding-Leitfaden. Eine Erklärung der Funktionsweise von Progressive Disclosure finden Sie unter Wie Skills funktionieren in der Übersicht. Praktische Anleitung:- Halten Sie den SKILL.md-Text unter 500 Zeilen für optimale Leistung
- Teilen Sie Inhalte in separate Dateien auf, wenn Sie sich diesem Limit nähern
- Verwenden Sie die folgenden Muster, um Anweisungen, Code und Ressourcen effektiv zu organisieren
Visuelle Übersicht: Von einfach zu komplex
Ein grundlegender Skill beginnt mit nur einer SKILL.md-Datei, die Metadaten und Anweisungen enthält:

Muster 1: Hochrangiger Leitfaden mit Referenzen
Muster 2: Domänenspezifische Organisation
Für Skills mit mehreren Domänen organisieren Sie Inhalte nach Domäne, um das Laden irrelevanter Kontexte zu vermeiden. Wenn ein Benutzer nach Verkaufsmetriken fragt, braucht Claude nur Verkaufs-bezogene Schemas zu lesen, nicht Finanz- oder Marketingdaten. Dies hält die Token-Nutzung niedrig und den Kontext fokussiert.SKILL.md
Muster 3: Bedingte Details
Zeigen Sie grundlegende Inhalte an, verlinken Sie zu erweiterten Inhalten:Vermeiden Sie tief verschachtelte Referenzen
Claude kann Dateien teilweise lesen, wenn sie von anderen referenzierten Dateien referenziert werden. Bei verschachtelten Referenzen könnte Claude Befehle wiehead -100 verwenden, um Inhalte in der Vorschau anzuzeigen, anstatt ganze Dateien zu lesen, was zu unvollständigen Informationen führt.
Halten Sie Referenzen eine Ebene tief von SKILL.md. Alle Referenzdateien sollten direkt von SKILL.md verlinken, um sicherzustellen, dass Claude vollständige Dateien liest, wenn nötig.
Schlechtes Beispiel: Zu tief:
Strukturieren Sie längere Referenzdateien mit Inhaltsverzeichnis
Für Referenzdateien länger als 100 Zeilen fügen Sie oben ein Inhaltsverzeichnis ein. Dies stellt sicher, dass Claude den vollständigen Umfang der verfügbaren Informationen sieht, auch bei teilweisem Lesen. Beispiel:Workflows und Feedback-Schleifen
Verwenden Sie Workflows für komplexe Aufgaben
Unterteilen Sie komplexe Operationen in klare, sequenzielle Schritte. Für besonders komplexe Workflows stellen Sie eine Checkliste bereit, die Claude in seine Antwort kopieren und abhaken kann, während es fortschreitet. Beispiel 1: Forschungssynthese-Workflow (für Skills ohne Code):Implementieren Sie Feedback-Schleifen
Häufiges Muster: Validator ausführen → Fehler beheben → wiederholen Dieses Muster verbessert die Ausgabequalität erheblich. Beispiel 1: Einhaltung des Stilhandbuchs (für Skills ohne Code):Inhaltsrichtlinien
Vermeiden Sie zeitempfindliche Informationen
Fügen Sie keine Informationen ein, die veraltet werden: Schlechtes Beispiel: Zeitempfindlich (wird falsch):Verwenden Sie konsistente Terminologie
Wählen Sie einen Begriff und verwenden Sie ihn durchgehend im Skill: Gut - Konsistent:- Immer „API-Endpunkt”
- Immer „Feld”
- Immer „extrahieren”
- Mischen Sie „API-Endpunkt”, „URL”, „API-Route”, „Pfad”
- Mischen Sie „Feld”, „Box”, „Element”, „Steuerelement”
- Mischen Sie „extrahieren”, „ziehen”, „abrufen”, „abrufen”
Häufige Muster
Vorlagenmuster
Stellen Sie Vorlagen für das Ausgabeformat bereit. Passen Sie die Strenge an Ihre Anforderungen an. Für strenge Anforderungen (wie API-Antworten oder Datenformate):Beispielmuster
Für Skills, bei denen die Ausgabequalität davon abhängt, Beispiele zu sehen, stellen Sie Ein-/Ausgabe-Paare bereit, genau wie bei regulärem Prompting:Bedingtes Workflow-Muster
Führen Sie Claude durch Entscheidungspunkte:Wenn Workflows groß oder kompliziert werden mit vielen Schritten, erwägen Sie, sie in separate Dateien zu verschieben und teilen Sie Claude mit, die entsprechende Datei basierend auf der Aufgabe zu lesen.
Bewertung und Iteration
Erstellen Sie Bewertungen zuerst
Erstellen Sie Bewertungen VOR dem Schreiben umfangreicher Dokumentation. Dies stellt sicher, dass Ihr Skill echte Probleme löst, anstatt dokumentierte zu lösen. Bewertungsgesteuerte Entwicklung:- Lücken identifizieren: Führen Sie Claude bei repräsentativen Aufgaben ohne Skill aus. Dokumentieren Sie spezifische Fehler oder fehlenden Kontext
- Bewertungen erstellen: Erstellen Sie drei Szenarien, die diese Lücken testen
- Baseline etablieren: Messen Sie Claudes Leistung ohne den Skill
- Minimale Anweisungen schreiben: Erstellen Sie gerade genug Inhalt, um die Lücken zu schließen und Bewertungen zu bestehen
- Iterieren: Führen Sie Bewertungen aus, vergleichen Sie mit der Baseline und verfeinern Sie
Dieses Beispiel zeigt eine datengesteuerte Bewertung mit einer einfachen Test-Rubrik. Wir bieten derzeit keine integrierte Möglichkeit, diese Bewertungen auszuführen. Benutzer können ihr eigenes Bewertungssystem erstellen. Bewertungen sind Ihre Quelle der Wahrheit für die Messung der Skill-Effektivität.
Entwickeln Sie Skills iterativ mit Claude
Der effektivste Skill-Entwicklungsprozess beinhaltet Claude selbst. Arbeiten Sie mit einer Claude-Instanz („Claude A”) zusammen, um einen Skill zu erstellen, der von anderen Instanzen („Claude B”) verwendet wird. Claude A hilft Ihnen, Anweisungen zu entwerfen und zu verfeinern, während Claude B sie bei echten Aufgaben testet. Dies funktioniert, weil Claude-Modelle verstehen, wie man effektive Agent-Anweisungen schreibt und welche Informationen Agents benötigen. Erstellen eines neuen Skills:- Führen Sie eine Aufgabe ohne Skill aus: Arbeiten Sie ein Problem mit Claude A mit normalem Prompting durch. Während Sie arbeiten, werden Sie natürlich Kontext bereitstellen, Vorlieben erklären und prozedurales Wissen teilen. Beachten Sie, welche Informationen Sie wiederholt bereitstellen.
- Identifizieren Sie das wiederverwendbare Muster: Nach Abschluss der Aufgabe identifizieren Sie, welchen Kontext Sie bereitgestellt haben, der für ähnliche zukünftige Aufgaben nützlich wäre. Beispiel: Wenn Sie eine BigQuery-Analyse durchgearbeitet haben, könnten Sie Tabellennamen, Felddefinitionen, Filterregeln (wie „immer Test-Konten ausschließen”) und häufige Abfragemuster bereitgestellt haben.
-
Bitten Sie Claude A, einen Skill zu erstellen: „Erstellen Sie einen Skill, der dieses BigQuery-Analysemuster erfasst, das wir gerade verwendet haben. Fügen Sie die Tabellenschemas, Benennungskonventionen und die Regel zum Filtern von Test-Konten ein.”
Claude-Modelle verstehen das Skill-Format und die Struktur nativ. Sie benötigen keine speziellen System-Prompts oder einen „Writing Skills”-Skill, um Claude zum Erstellen von Skills zu bringen. Bitten Sie einfach Claude, einen Skill zu erstellen, und es wird ordnungsgemäß strukturierter SKILL.md-Inhalt mit angemessenem Frontmatter und Body-Inhalt generieren.
- Überprüfen Sie auf Prägnanz: Überprüfen Sie, dass Claude A keine unnötigen Erklärungen hinzugefügt hat. Fragen Sie: „Entfernen Sie die Erklärung darüber, was Win-Rate bedeutet – Claude weiß das bereits.”
- Verbessern Sie die Informationsarchitektur: Bitten Sie Claude A, den Inhalt effektiver zu organisieren. Zum Beispiel: „Organisieren Sie dies so, dass das Tabellenschema in einer separaten Referenzdatei ist. Wir könnten später mehr Tabellen hinzufügen.”
- Testen Sie bei ähnlichen Aufgaben: Verwenden Sie den Skill mit Claude B (eine frische Instanz mit geladenem Skill) bei verwandten Anwendungsfällen. Beobachten Sie, ob Claude B die richtige Information findet, Regeln korrekt anwendet und die Aufgabe erfolgreich handhabt.
- Iterieren Sie basierend auf Beobachtung: Wenn Claude B kämpft oder etwas verpasst, kehren Sie zu Claude A mit Spezifika zurück: „Als Claude diesen Skill verwendete, vergaß es, nach Datum für Q4 zu filtern. Sollten wir einen Abschnitt über Datumfilterungsmuster hinzufügen?”
- Arbeiten mit Claude A (dem Experten, der hilft, den Skill zu verfeinern)
- Testen mit Claude B (dem Agent, der den Skill verwendet, um echte Arbeit zu leisten)
- Beobachten des Verhaltens von Claude B und Erkenntnisse zurück zu Claude A bringen
- Verwenden Sie den Skill in echten Workflows: Geben Sie Claude B (mit geladenem Skill) echte Aufgaben, nicht Test-Szenarien
- Beobachten Sie das Verhalten von Claude B: Notieren Sie, wo es kämpft, erfolgreich ist oder unerwartete Entscheidungen trifft Beispielbeobachtung: „Als ich Claude B um einen regionalen Verkaufsbericht bat, schrieb es die Abfrage, vergaß aber, Test-Konten zu filtern, obwohl der Skill diese Regel erwähnt.”
- Kehren Sie zu Claude A für Verbesserungen zurück: Teilen Sie die aktuelle SKILL.md und beschreiben Sie, was Sie beobachtet haben. Fragen Sie: „Ich bemerkte, dass Claude B vergaß, Test-Konten zu filtern, als ich um einen regionalen Bericht bat. Der Skill erwähnt Filterung, aber vielleicht ist es nicht prominent genug?”
- Überprüfen Sie Claudes A Vorschläge: Claude A könnte vorschlagen, die Struktur zu reorganisieren, um Regeln prominenter zu machen, stärkere Sprache wie „MUSS filtern” anstelle von „immer filtern” zu verwenden, oder den Workflow-Abschnitt umzustrukturieren.
- Wenden Sie Änderungen an und testen Sie: Aktualisieren Sie den Skill mit Claudes A Verfeinerungen und testen Sie dann erneut mit Claude B bei ähnlichen Anfragen
- Wiederholen Sie basierend auf Nutzung: Fahren Sie mit diesem Beobachtungs-Verfeinerungs-Test-Zyklus fort, während Sie neue Szenarien begegnen. Jede Iteration verbessert den Skill basierend auf echtem Agent-Verhalten, nicht auf Annahmen.
- Teilen Sie Skills mit Teamkollegen und beobachten Sie ihre Nutzung
- Fragen Sie: Wird der Skill wie erwartet aktiviert? Sind Anweisungen klar? Was fehlt?
- Integrieren Sie Feedback, um blinde Flecken in Ihren eigenen Nutzungsmustern zu beheben
Beobachten Sie, wie Claude Skills navigiert
Während Sie Skills iterieren, achten Sie darauf, wie Claude sie in der Praxis tatsächlich nutzt. Achten Sie auf:- Unerwartete Explorationspfade: Liest Claude Dateien in einer Reihenfolge, die Sie nicht erwartet haben? Dies könnte darauf hindeuten, dass Ihre Struktur nicht so intuitiv ist, wie Sie dachten
- Verpasste Verbindungen: Schlägt Claude fehl, Referenzen zu wichtigen Dateien zu folgen? Ihre Links könnten expliziter oder prominenter sein
- Überabhängigkeit von bestimmten Abschnitten: Wenn Claude wiederholt die gleiche Datei liest, sollten Sie erwägen, ob dieser Inhalt stattdessen in der Haupt-SKILL.md sein sollte
- Ignorierter Inhalt: Wenn Claude nie auf eine gebündelte Datei zugreift, könnte sie unnötig oder schlecht signalisiert in den Hauptanweisungen sein
name und die description in den Metadaten Ihres Skills sind besonders kritisch. Claude verwendet diese, wenn er entscheidet, ob der Skill als Reaktion auf die aktuelle Aufgabe ausgelöst werden soll. Stellen Sie sicher, dass sie klar beschreiben, was der Skill tut und wann er verwendet werden sollte.
Anti-Muster zu vermeiden
Vermeiden Sie Windows-Pfade
Verwenden Sie immer Schrägstriche in Dateipfaden, auch unter Windows:- ✓ Gut:
scripts/helper.py,reference/guide.md - ✗ Vermeiden:
scripts\helper.py,reference\guide.md
Vermeiden Sie zu viele Optionen
Präsentieren Sie nicht mehrere Ansätze, wenn nicht nötig:Erweitert: Skills mit ausführbarem Code
Die folgenden Abschnitte konzentrieren sich auf Skills, die ausführbare Skripte enthalten. Wenn Ihr Skill nur Markdown-Anweisungen verwendet, fahren Sie mit Checkliste für effektive Skills fort.Lösen Sie, anstatt zu verschieben
Beim Schreiben von Skripten für Skills behandeln Sie Fehlerbedingungen, anstatt sie an Claude zu verschieben. Gutes Beispiel: Fehler explizit behandeln:Stellen Sie Utility-Skripte bereit
Auch wenn Claude ein Skript schreiben könnte, vorgefertigte Skripte bieten Vorteile: Vorteile von Utility-Skripten:- Zuverlässiger als generierter Code
- Sparen Sie Token (kein Code muss in den Kontext aufgenommen werden)
- Sparen Sie Zeit (keine Code-Generierung erforderlich)
- Stellen Sie Konsistenz über Verwendungen hinweg sicher

- Das Skript ausführen (am häufigsten): „Führen Sie
analyze_form.pyaus, um Felder zu extrahieren” - Es als Referenz lesen (für komplexe Logik): „Siehe
analyze_form.pyfür den Feldextraktionsalgorithmus”
Verwenden Sie visuelle Analyse
Wenn Eingaben als Bilder gerendert werden können, lassen Sie Claude sie analysieren:In diesem Beispiel müssten Sie das
pdf_to_images.py-Skript schreiben.Erstellen Sie überprüfbare Zwischenergebnisse
Wenn Claude komplexe, offene Aufgaben ausführt, kann es Fehler machen. Das „Plan-Validierung-Ausführung”-Muster erfasst Fehler früh, indem Claude zuerst einen Plan in strukturiertem Format erstellt, dann diesen Plan mit einem Skript validiert, bevor er ihn ausführt. Beispiel: Stellen Sie sich vor, Sie bitten Claude, 50 Formularfelder in einer PDF basierend auf einer Tabelle zu aktualisieren. Ohne Validierung könnte Claude auf nicht vorhandene Felder verweisen, widersprüchliche Werte erstellen, erforderliche Felder verpassen oder Updates falsch anwenden. Lösung: Verwenden Sie das oben gezeigte Workflow-Muster (PDF-Formularausfüllung), aber fügen Sie eine Zwischendateichanges.json hinzu, die validiert wird, bevor Änderungen angewendet werden. Der Workflow wird zu: Analysieren → Plandatei erstellen → Plan validieren → Ausführen → Überprüfen.
Warum dieses Muster funktioniert:
- Erfasst Fehler früh: Validierung findet Probleme, bevor Änderungen angewendet werden
- Maschinenverifizierbar: Skripte bieten objektive Überprüfung
- Reversible Planung: Claude kann den Plan iterieren, ohne Originale zu berühren
- Klares Debugging: Fehlermeldungen zeigen auf spezifische Probleme
Paketabhängigkeiten
Skills laufen in der Code-Ausführungsumgebung mit plattformspezifischen Einschränkungen:- claude.ai: Kann Pakete von npm und PyPI installieren und von GitHub-Repositories abrufen
- Anthropic API: Hat keinen Netzwerkzugriff und keine Runtime-Paketinstallation
Runtime-Umgebung
Skills laufen in einer Code-Ausführungsumgebung mit Dateisystemzugriff, Bash-Befehlen und Code-Ausführungsfähigkeiten. Für die konzeptionelle Erklärung dieser Architektur siehe Die Skills-Architektur in der Übersicht. Wie dies Ihre Erstellung beeinflusst: Wie Claude auf Skills zugreift:- Metadaten vorab geladen: Beim Start werden der Name und die Beschreibung aus dem YAML-Frontmatter aller Skills in die Systemaufforderung geladen
- Dateien bei Bedarf lesen: Claude verwendet Bash-Read-Tools, um auf SKILL.md und andere Dateien aus dem Dateisystem zuzugreifen, wenn nötig
- Skripte effizient ausgeführt: Utility-Skripte können über Bash ausgeführt werden, ohne ihren vollständigen Inhalt in den Kontext zu laden. Nur die Ausgabe des Skripts verbraucht Token
- Keine Kontextstrafe für große Dateien: Referenzdateien, Daten oder Dokumentation verbrauchen keine Kontext-Token, bis sie tatsächlich gelesen werden
- Dateipfade sind wichtig: Claude navigiert Ihr Skill-Verzeichnis wie ein Dateisystem. Verwenden Sie Schrägstriche (
reference/guide.md), nicht Backslashes - Benennen Sie Dateien aussagekräftig: Verwenden Sie Namen, die Inhalte angeben:
form_validation_rules.md, nichtdoc2.md - Organisieren Sie für Entdeckung: Strukturieren Sie Verzeichnisse nach Domäne oder Funktion
- Gut:
reference/finance.md,reference/sales.md - Schlecht:
docs/file1.md,docs/file2.md
- Gut:
- Bündeln Sie umfassende Ressourcen: Fügen Sie vollständige API-Dokumente, umfangreiche Beispiele, große Datensätze ein; keine Kontextstrafe bis zum Zugriff
- Bevorzugen Sie Skripte für deterministische Operationen: Schreiben Sie
validate_form.py, anstatt Claude zu bitten, Validierungscode zu generieren - Machen Sie die Ausführungsabsicht klar:
- „Führen Sie
analyze_form.pyaus, um Felder zu extrahieren” (ausführen) - „Siehe
analyze_form.pyfür den Extraktionsalgorithmus” (als Referenz lesen)
- „Führen Sie
- Testen Sie Dateizugriffsmuster: Überprüfen Sie, dass Claude Ihre Verzeichnisstruktur navigieren kann, indem Sie mit echten Anfragen testen
reference/finance.md und ruft Bash auf, um nur diese Datei zu lesen. Die Dateien sales.md und product.md bleiben im Dateisystem und verbrauchen null Kontext-Token, bis sie benötigt werden. Dieses dateisystembasierte Modell ermöglicht Progressive Disclosure. Claude kann genau das navigieren und selektiv laden, das jede Aufgabe erfordert.
Vollständige Details zur technischen Architektur finden Sie unter Wie Skills funktionieren in der Skills-Übersicht.
MCP-Tool-Referenzen
Wenn Ihr Skill MCP (Model Context Protocol) Tools verwendet, verwenden Sie immer vollständig qualifizierte Tool-Namen, um „Tool nicht gefunden”-Fehler zu vermeiden. Format:ServerName:tool_name
Beispiel:
BigQueryundGitHubMCP-Servernamen sindbigquery_schemaundcreate_issuedie Tool-Namen innerhalb dieser Server sind
Nehmen Sie nicht an, dass Tools installiert sind
Nehmen Sie nicht an, dass Pakete verfügbar sind:Technische Hinweise
YAML-Frontmatter-Anforderungen
Das SKILL.md-Frontmatter erfordertname- und description-Felder mit spezifischen Validierungsregeln:
name: Maximal 64 Zeichen, nur Kleinbuchstaben/Zahlen/Bindestriche, keine XML-Tags, keine reservierten Wörterdescription: Maximal 1024 Zeichen, nicht leer, keine XML-Tags
Token-Budgets
Halten Sie den SKILL.md-Text unter 500 Zeilen für optimale Leistung. Wenn Ihr Inhalt diesen Wert überschreitet, teilen Sie ihn in separate Dateien auf, indem Sie die oben beschriebenen Progressive-Disclosure-Muster verwenden. Für Architekturdetails siehe die Skills-Übersicht.Checkliste für effektive Skills
Überprüfen Sie vor dem Teilen eines Skills:Kernqualität
- Beschreibung ist spezifisch und enthält Schlüsselbegriffe
- Beschreibung enthält sowohl, was der Skill tut, als auch wann er verwendet wird
- SKILL.md-Text ist unter 500 Zeilen
- Zusätzliche Details sind in separaten Dateien (falls nötig)
- Keine zeitempfindlichen Informationen (oder im Abschnitt „alte Muster”)
- Konsistente Terminologie durchgehend
- Beispiele sind konkret, nicht abstrakt
- Dateireferenzen sind eine Ebene tief
- Progressive Disclosure wird angemessen verwendet
- Workflows haben klare Schritte
Code und Skripte
- Skripte lösen Probleme, anstatt an Claude zu verschieben
- Fehlerbehandlung ist explizit und hilfreich
- Keine „Voodoo-Konstanten” (alle Werte gerechtfertigt)
- Erforderliche Pakete in Anweisungen aufgelistet und als verfügbar überprüft
- Skripte haben klare Dokumentation
- Keine Windows-Pfade (alle Schrägstriche)
- Validierungs-/Überprüfungsschritte für kritische Operationen
- Feedback-Schleifen für qualitätskritische Aufgaben enthalten
Testen
- Mindestens drei Bewertungen erstellt
- Mit Haiku, Sonnet und Opus getestet
- Mit echten Nutzungsszenarien getestet
- Team-Feedback integriert (falls zutreffend)
Nächste Schritte
Erste Schritte mit Agent Skills
Erstellen Sie Ihren ersten Skill
Verwenden Sie Skills in Claude Code
Erstellen und verwalten Sie Skills in Claude Code
Verwenden Sie Skills im Agent SDK
Verwenden Sie Skills programmgesteuert in TypeScript und Python
Verwenden Sie Skills mit der API
Laden Sie Skills programmgesteuert hoch und verwenden Sie sie