OpenAI 最近做了一個不算轟動但很實際的調整:把 GPT-5.5 Instant 設為 ChatGPT 的預設模型。如果你有在留意,過去一兩週打開 ChatGPT,回覆速度明顯變快,而且回答變得更「乾脆」。這不是錯覺,而是底層模型換了。 這篇文章不是要講 benchmark 又破了多少,而是想討論一個更實際的問題:當一個模型變成「預設」,對日常使用的人來說,真正的改變在哪裡。 更快的回應,不只是快了一點 GPT-5.5 Instant 最快能感受到的差異是速度。過去 GPT-5.4 或更早版本,遇到複雜問題時,思考時間明顯較長。但 GPT-5.5 Instant 在同樣的問題上,思考時間縮短,而且不是犧牲品質來換速度。 舉個實際場景:寫一封英文商務郵件。過去你丟一段中文草稿給 ChatGPT,它可能要 5–8 秒才吐出完整版本。現在...