向量知識庫檢索方式與參數設定
Chunking + Embedding + Top K 是什麼?
這是知識庫檢索與 RAG(Retrieval-Augmented Generation)的核心技術流程,用來讓 AI 從長文本中找出最有用的資訊來回答問題。
1. Chunking(切片)
將一份長文件(如 5,000 字)切成小段落(chunks),每段約 300 字左右。
這是因為 LLM 記憶有限,無法一次處理整份文檔。
範例:
Chunk 1:退貨期限為 7 天,需附上購買憑證…
Chunk 2:不可退貨之商品包含內衣與個人衛生用品…
Chunk 3:退貨流程請先填寫線上表單…
2. Embedding(語意轉向量)
將每個 chunk 轉換為一組語意向量(數字列表),讓 AI 能夠理解「這段文字的意思」。
例子:
Chunk 1 →
[0.12, -0.48, 0.33, ..., 0.05]Chunk 2 →
[0.02, -0.35, 0.28, ..., 0.12]
使用者的問題也會轉成向量:
使用者問:「如何退貨?」 →
[0.10, -0.45, 0.30, ..., 0.08]
3. Top K 相似段落擷取
系統會比較使用者問題與所有 chunks 的向量相似度,找出前 K 段最接近的段落。
常見設定:Top 3、Top 5 或 Top 10
範例查找結果:
Top 1:Chunk 3(退貨流程)
Top 2:Chunk 1(退貨期限)
Top 3:Chunk 4(物流注意事項)
4. 搭配生成模型產出答案
AI 將「Top K 的段落 + 使用者問題」一起輸入模型,產出語意完整的回答。
✅ 這樣就能做到「語意問答」而非「關鍵字比對」!
總結一句話:
Chunking + Embedding + Top K = 用語意找出最相關內容,再讓 AI 幫你總結回答。
檢索參數設定方式
語義 Semantic Matching
代表意思:使用向量嵌入(Embedding)來計算使用者問題與知識庫中文章之間的語意相似度。
功能說明:即使問法不同,只要語意相近,也能匹配到正確內容。
適合情境:自由問答、語意變化大、使用者問法多樣時特別有效。
關鍵詞 Keyword Matching
代表意思:依據關鍵字精準比對問題與知識庫中的內容。
功能說明:像是傳統搜尋引擎,關鍵字完全吻合才會被視為相關。
適合情境:文件較為結構化、特定術語為主、需要高精準度的場合。
語義 / 關鍵詞 權重設定(滑桿)
可設定從 0 到 1 的比例,例如:
語義 0.7 / 關鍵詞 0.3:語意優先。語義 0.5 / 關鍵詞 0.5:語意與關鍵詞平均。語義 0.2 / 關鍵詞 0.8:更注重關鍵詞精準比對。
Score 閥值(Score Threshold)
代表意思:最低相似度門檻,低於這個分數的結果將不被返回。
範例設定:
0.3(預設值):建議起始值,較寬鬆,容易取得答案。0.5:提高準確度,但可能犧牲一些回答。0.7或更高:只允許極高相似度的答案,適合高精度場景。
注意:如果設太高,使用者可能常遇到「找不到答案」的情況。
設定建議
一般知識問答 / FAQ
0.7 / 0.3
0.3 ~ 0.4
技術文件、產品使用說明
0.5 / 0.5
0.4 ~ 0.5
嚴謹法規或合約查詢(精準)
0.3 / 0.7
0.5 ~ 0.6
Last updated
