Qwen3 Embedding + pplx-embed:多語言 Embedding 新王者,RAG 的遊戲規則要變了
AI Research — Mar 11, 2026

Qwen3 Embedding + pplx-embed:多語言 Embedding 新王者,RAG 的遊戲規則要變了

Qwen3 Embedding 與 pplx-embed 雙雙登頂 MTEB 多語言排行榜,支援 100+ 語言,Qwen3-VL 更帶來多模態 embedding,為搜尋引擎與 RAG 應用帶來新的技術基石。

Embedding 模型不性感,但它決定了你的 RAG 系統到底好不好用。這次的升級,是質變。

MTEB 多語言第一:不只是跑分

Qwen3 Embedding 和 Perplexity 的 pplx-embed 幾乎同時登頂 MTEB(Massive Text Embedding Benchmark)多語言排行榜,支援超過 100 種語言。這不是學術界的小打小鬧——MTEB 是目前最全面的 embedding 評測基準,涵蓋分類、聚類、檢索、重排等多個任務維度。

對中文使用者來說,Qwen3 Embedding 的意義尤其重大。過去的多語言 embedding 模型在中文上的表現往往差強人意,尤其是處理繁體中文、專業術語、以及中英混雜文本時,語意相似度的計算經常失準。Qwen3 在中文上的提升是肉眼可見的,這直接影響了所有基於向量搜尋的應用品質。

Qwen3-VL:多模態 Embedding 的新可能

更值得關注的是 Qwen3-VL 帶來的多模態 embedding 能力。它可以把文字、圖片、甚至圖文混排的內容統一映射到同一個向量空間。這意味著你可以用一句文字描述去搜尋圖片,或者用一張圖片去找相關的文件段落。

對 RAG 系統來說,這打開了全新的應用場景。過去的 RAG 只能處理純文字文件,遇到含有圖表、流程圖、截圖的文件就束手無策。多模態 embedding 讓 RAG 可以真正理解整份文件的完整內容,不再遺漏圖片中的關鍵資訊。

pplx-embed:Perplexity 的搜尋引擎基因

Perplexity 推出 pplx-embed 也在意料之中。作為 AI 搜尋引擎,Perplexity 對 embedding 品質的要求極高——搜尋結果的相關性直接取決於 embedding 的精準度。pplx-embed 針對搜尋場景做了特別優化,在長文檔檢索和跨語言查詢上表現突出。

兩家模型都提供了 API 存取和開源權重(Qwen3 為開源,pplx-embed 為 API),開發者可以根據自己的需求選擇自建或雲端部署。

TAKEAWAY

如果你有在用 RAG,現在就該更新你的 embedding 模型。從 OpenAI text-embedding-3 或舊版 BGE 升級到 Qwen3 Embedding,在中文場景下的檢索品質提升會非常明顯。Embedding 是 RAG 系統的地基——地基不穩,上面的 prompt engineering 做得再漂亮也沒用。這次的模型升級,值得你花一個下午來遷移。

更多 AI 新聞

追蹤 IG 第一時間收到 AI 新聞推播。