即使是像 Claude 這樣最先進的語言模型,有時也會生成與給定上下文不符或事實不正確的文本。這種現象被稱為”幻覺”,可能會降低您的 AI 驅動解決方案的可靠性。 本指南將探討最小化幻覺並確保 Claude 輸出準確可信的技術。

基本幻覺最小化策略

  • 允許 Claude 說”我不知道”: 明確給予 Claude 承認不確定性的許可。這個簡單的技術可以大大減少錯誤信息。
角色內容
用戶作為我們的併購顧問,分析這份關於 ExampleCorp 可能收購 AcmeCo 的報告。

<report>
{{REPORT}}
</report>

重點關注財務預測、整合風險和監管障礙。如果您對任何方面不確定,或者報告缺乏必要信息,請說”我沒有足夠的信息來確信地評估這一點。”
  • 使用直接引用進行事實依據: 對於涉及長文檔(>20K 標記)的任務,請先要求 Claude 逐字提取引用,然後再執行其任務。這將其回應建立在實際文本的基礎上,減少幻覺。
角色內容
用戶作為我們的數據保護官,審查這份更新的隱私政策是否符合 GDPR 和 CCPA。
<policy>
{{POLICY}}
</policy>

1. 從政策中提取與 GDPR 和 CCPA 合規性最相關的確切引用。如果找不到相關引用,請說明”未找到相關引用。“

2. 使用這些引用來分析這些政策部分的合規性,引用編號。僅基於提取的引用進行分析。
  • 通過引用驗證:通過讓 Claude 為每個聲明引用引文和來源,使其回應可審核。您還可以讓 Claude 在生成回應後通過尋找支持性引用來驗證每個聲明。如果找不到引用,它必須撤回該聲明。
角色內容
用戶僅使用這些產品簡介和市場報告中的信息,為我們的新網絡安全產品 AcmeSecurity Pro 起草新聞稿。
<documents>
{{DOCUMENTS}}
</documents>

起草後,審查新聞稿中的每個聲明。對於每個聲明,從文檔中找到支持它的直接引用。如果找不到支持某個聲明的引用,請從新聞稿中刪除該聲明,並在刪除處用空的 [] 括號標記。

高級技術

  • 思維鏈驗證:要求 Claude 在給出最終答案之前逐步解釋其推理過程。這可以揭示錯誤的邏輯或假設。
  • N 次最佳驗證:多次運行相同的提示並比較輸出。輸出之間的不一致可能表明存在幻覺。
  • 迭代改進:將 Claude 的輸出用作後續提示的輸入,要求它驗證或擴展先前的陳述。這可以捕捉和糾正不一致之處。
  • 外部知識限制:明確指示 Claude 只使用提供的文檔中的信息,而不使用其一般知識。
請記住,雖然這些技術顯著減少了幻覺,但並不能完全消除它們。始終要驗證關鍵信息,特別是對於高風險決策。