ADR-003: Hybrid LLM — 地端預設,外部可選
Arova Nexus — Phase 0 Product Definition | 2026-03-31

狀態: 已採納(Accepted)
日期: 2026-03
決策者: Software Architect, Product

背景

Arova Nexus 的 L4 需要 LLM 來驅動:

客戶群涵蓋金融業(要求資料不出內網)、製造業(資料敏感度中等)、一般企業(成本敏感)。不同客戶對準確度成本資料主權的權重不同,無法用單一 LLM 策略滿足。

決策

Hybrid LLM 策略 — 地端 LLM 為預設,外部 LLM 作為可選。

理由

  1. 資料主權是金融業客戶的硬需求 — 不能把日誌 / 工單 / 告警內容送到外部 API,否則客戶無法採購
  2. 地端成本可預測 — 一次性 GPU 投資比按 token 付費對多數企業客戶更友善
  3. 外部 LLM 有時候仍有價值 — Opus / GPT-4 class 模型在複雜推理上仍領先;允許客戶選擇讓產品有彈性
  4. Embedding 永遠在地端 — Embedding 模型輕量(BGE-M3、E5-large 都可 CPU 跑),不需要外部推論,省一半複雜度
  5. 開關在客戶手上,不在 Arova 手上 — 我們不負責客戶的 API 額度、隱私合約、token 成本,減少法務風險
  6. 對應 PRD Ch20 AI Strategy 明確規定

考慮過的替代方案

方案 優點 缺點
Hybrid:on-prem 預設 + external 可選(選) 滿足所有客戶類型,風險分散 需要同時維運兩種 adapter
純地端 LLM 資料最安全、成本最可預測 能力天花板低,遇到複雜任務(長上下文推理)客戶會抱怨準確度
純外部 LLM 開發最快、能力最強 金融業客戶直接刷掉;成本難預測
Arova 代理外部 API 客戶不需要自己管 key 法務風險巨大:我們成為資料處理者、需要跟 OpenAI 簽 BAA 等

影響

正面

負面 / 取捨

需要追蹤的風險

技術實作要點

相關