Kontextfenster
Das “Kontextfenster” bezieht sich auf die Textmenge, auf die ein Sprachmodell zurückblicken und referenzieren kann, wenn es neuen Text generiert. Dies unterscheidet sich von dem großen Datenkorpus, auf dem das Sprachmodell trainiert wurde, und stellt stattdessen ein “Arbeitsgedächtnis” für das Modell dar. Ein größeres Kontextfenster ermöglicht es dem Modell, komplexere und längere Prompts zu verstehen und darauf zu antworten, während ein kleineres Kontextfenster die Fähigkeit des Modells einschränken kann, längere Prompts zu handhaben oder die Kohärenz über längere Gespräche aufrechtzuerhalten. Siehe unseren Leitfaden zum Verständnis von Kontextfenstern, um mehr zu erfahren.Fine-Tuning
Fine-Tuning ist der Prozess der weiteren Schulung eines vortrainierten Sprachmodells mit zusätzlichen Daten. Dies führt dazu, dass das Modell beginnt, die Muster und Eigenschaften des Fine-Tuning-Datensatzes zu repräsentieren und nachzuahmen. Claude ist kein reines Sprachmodell; es wurde bereits feinabgestimmt, um ein hilfreicher Assistent zu sein. Unsere API bietet derzeit kein Fine-Tuning an, aber bitte fragen Sie Ihren Anthropic-Kontakt, wenn Sie daran interessiert sind, diese Option zu erkunden. Fine-Tuning kann nützlich sein, um ein Sprachmodell an eine bestimmte Domäne, Aufgabe oder einen Schreibstil anzupassen, erfordert aber eine sorgfältige Betrachtung der Fine-Tuning-Daten und der potenziellen Auswirkungen auf die Leistung und Verzerrungen des Modells.HHH
Diese drei H’s repräsentieren Anthropics Ziele bei der Sicherstellung, dass Claude für die Gesellschaft von Nutzen ist:- Eine hilfreiche KI wird versuchen, die gestellte Aufgabe auszuführen oder die Frage nach besten Kräften zu beantworten und relevante und nützliche Informationen bereitzustellen.
- Eine ehrliche KI wird genaue Informationen geben und nicht halluzinieren oder konfabulieren. Sie wird ihre Grenzen und Unsicherheiten anerkennen, wenn es angebracht ist.
- Eine harmlose KI wird nicht beleidigend oder diskriminierend sein, und wenn sie gebeten wird, bei einer gefährlichen oder unethischen Handlung zu helfen, sollte die KI höflich ablehnen und erklären, warum sie nicht einwilligen kann.