三巨頭為何突然站在一起?關鍵在「蒸餾」變成產業級風險 當 OpenAI、Anthropic 與 Google 這三家在商業模式、產品路線與雲端生態上彼此競爭的公司,罕見地對外展現一致立場,通常代表問題已不只是「公關聲明」,而是影響到營收、模型安全與競爭秩序的共同痛點。這次焦點落在中國 AI 對手被指涉的「蒸餾(distillation)」行為:透過大量查詢與比對,將領先模型的能力「轉移」到自家模型上,成本更低、速度更快。 對一般使用者而言,蒸餾聽起來像技術優化;但對模型提供者而言,它可能等同於「把昂貴的研發成果,用 API 回答一題題搬走」。 蒸餾到底是什麼?為何常引發爭議 在機器學習領域,「知識蒸餾」原本是一種正當技術:用更大的 teacher model 產生軟標籤或輸出,訓練更小的 student model,達成降成本、降延遲的目的。問題出在蒸餾的資料來源: 在自家資料與授權資料上做蒸餾:多半合理且常見。 對競品的商用模型 API 進行大規模輸出收集,再反向訓練自家模型:容易踩到服務條款、資料權利與不公平競爭紅線。 因此,爭議不在「蒸餾技術」本身,而在於是否把對方模型輸出當成可被無限制擷取的訓練資產。 三家公司為何要「聯手」?一個共同威脅:API...