上下文視窗

「上下文視窗」指的是語言模型在生成新文本時能夠回顧和參考的文本量。這與語言模型訓練時使用的大型數據語料庫不同,而是代表模型的「工作記憶」。較大的上下文視窗允許模型理解和回應更複雜和冗長的提示,而較小的上下文視窗可能限制模型處理較長提示或在延長對話中維持連貫性的能力。 請參閱我們的理解上下文視窗指南以了解更多。

微調

微調是使用額外數據進一步訓練預訓練語言模型的過程。這會使模型開始表現和模仿微調數據集的模式和特徵。Claude 不是一個裸露的語言模型;它已經被微調成為一個有用的助手。我們的 API 目前不提供微調功能,但如果您有興趣探索此選項,請詢問您的 Anthropic 聯絡人。微調對於將語言模型適應特定領域、任務或寫作風格很有用,但需要仔細考慮微調數據以及對模型性能和偏見的潛在影響。

HHH

這三個 H 代表 Anthropic 在確保 Claude 對社會有益方面的目標:
  • 有用的 AI 將嘗試盡其所能執行任務或回答所提出的問題,提供相關和有用的資訊。
  • 誠實的 AI 將提供準確的資訊,不會產生幻覺或虛構。它會在適當時承認其限制和不確定性。
  • 無害的 AI 不會具有攻擊性或歧視性,當被要求協助危險或不道德行為時,AI 應該禮貌地拒絕並解釋為什麼無法配合。

延遲

在生成式 AI 和大型語言模型的背景下,延遲指的是模型對給定提示做出回應所需的時間。這是提交提示和接收生成輸出之間的延遲。較低的延遲表示更快的回應時間,這對於即時應用程式、聊天機器人和互動體驗至關重要。可能影響延遲的因素包括模型大小、硬體能力、網路條件,以及提示和生成回應的複雜性。

LLM

大型語言模型(LLM)是具有許多參數的 AI 語言模型,能夠執行各種令人驚訝的有用任務。這些模型在大量文本數據上進行訓練,可以生成類似人類的文本、回答問題、總結資訊等等。Claude 是基於大型語言模型的對話助手,已經過微調並使用 RLHF 訓練,以變得更有用、誠實和無害。

MCP(模型上下文協議)

模型上下文協議(MCP)是一個開放協議,標準化應用程式如何為 LLM 提供上下文。就像 AI 應用程式的 USB-C 連接埠一樣,MCP 提供了一種統一的方式來連接 AI 模型與不同的數據源和工具。MCP 使 AI 系統能夠在互動中維持一致的上下文,並以標準化的方式存取外部資源。請參閱我們的 MCP 文件以了解更多。

MCP 連接器

MCP 連接器是一個功能,允許 API 使用者直接從 Messages API 連接到 MCP 伺服器,而無需建立 MCP 客戶端。這使得透過 Claude API 與 MCP 相容的工具和服務無縫整合成為可能。MCP 連接器支援工具呼叫等功能,並在公開測試版中提供。請參閱我們的 MCP 連接器文件以了解更多。

預訓練

預訓練是在大型無標籤文本語料庫上訓練語言模型的初始過程。在 Claude 的情況下,自回歸語言模型(如 Claude 的底層模型)被預訓練來預測下一個詞,給定文件中文本的先前上下文。這些預訓練模型本身並不擅長回答問題或遵循指令,通常需要深度的提示工程技能來引出所需的行為。微調和 RLHF 用於精煉這些預訓練模型,使它們對廣泛的任務更有用。

RAG(檢索增強生成)

檢索增強生成(RAG)是一種將資訊檢索與語言模型生成相結合的技術,以提高生成文本的準確性和相關性,並更好地將模型的回應建立在證據基礎上。在 RAG 中,語言模型通過外部知識庫或傳遞到上下文視窗的一組文件來增強。數據在查詢發送到模型時在運行時檢索,儘管模型本身不一定檢索數據(但可以通過工具使用和檢索功能來實現)。在生成文本時,首先必須根據輸入提示從知識庫中檢索相關資訊,然後與原始查詢一起傳遞給模型。模型使用這些資訊來指導其生成的輸出。這允許模型存取和利用超出其訓練數據的資訊,減少對記憶的依賴並提高生成文本的事實準確性。RAG 對於需要最新資訊、特定領域知識或明確引用來源的任務特別有用。然而,RAG 的有效性取決於外部知識庫的品質和相關性,以及在運行時檢索的知識。

RLHF

人類反饋強化學習(RLHF)是一種用於訓練預訓練語言模型以符合人類偏好的行為方式的技術。這可以包括幫助模型更有效地遵循指令或更像聊天機器人一樣行動。人類反饋包括對兩個或更多範例文本進行排名,強化學習過程鼓勵模型偏好與排名較高的輸出相似的輸出。Claude 已使用 RLHF 訓練成為更有用的助手。如需更多詳細資訊,您可以閱讀 Anthropic 關於此主題的論文

溫度

溫度是一個控制模型在文本生成過程中預測隨機性的參數。較高的溫度導致更具創意和多樣化的輸出,允許措辭的多種變化,在小說的情況下,答案也會有變化。較低的溫度導致更保守和確定性的輸出,堅持最可能的措辭和答案。調整溫度使用戶能夠鼓勵語言模型探索罕見、不常見或令人驚訝的詞彙選擇和序列,而不是只選擇最可能的預測。

TTFT(首個標記時間)

首個標記時間(TTFT)是一個性能指標,測量語言模型在接收提示後生成其輸出的第一個標記所需的時間。這是模型回應性的重要指標,對於互動應用程式、聊天機器人和即時系統特別相關,這些系統的用戶期望快速的初始反饋。較低的 TTFT 表示模型可以更快地開始生成回應,提供更無縫和引人入勝的用戶體驗。可能影響 TTFT 的因素包括模型大小、硬體能力、網路條件和提示的複雜性。

標記

標記是語言模型的最小個別單位,可以對應於詞、子詞、字符,甚至字節(在 Unicode 的情況下)。對於 Claude,一個標記大約代表 3.5 個英文字符,儘管確切數字可能因使用的語言而異。在「文本」層面與語言模型互動時,標記通常是隱藏的,但在檢查語言模型的確切輸入和輸出時變得相關。當 Claude 被提供文本進行評估時,文本(由一系列字符組成)被編碼成一系列標記供模型處理。較大的標記在推理和預訓練期間實現數據效率(並在可能時被利用),而較小的標記允許模型處理不常見或從未見過的詞。標記化方法的選擇可能影響模型的性能、詞彙大小和處理詞彙外詞彙的能力。