最近一組數據在網路圈引起討論:谷歌搜尋的市佔率反彈至90%,日流量是ChatGPT的15倍。數字擺出來,看起來像是搜尋巨人的地位毫無動搖,但如果你只看這個數字就覺得「AI搜尋根本沒威脅」,那可能錯過更重要的事。 這篇文章不打算重複各家媒體的數字報導,而是想聚焦一個真正的問題:為什麼谷歌在AI浪潮下還能守住市佔?ChatGPT流量真的輸了嗎?以及,這個90%到底代表什麼? 90%市佔的真相:不是用戶不想走,而是沒地方去 谷歌搜尋能夠維持90%市佔,最直接的原因不是它做得多好,而是「替代方案還不夠完整」。ChatGPT、Perplexity 這類AI搜尋工具確實成長很快,但它們目前的定位仍是「輔助查詢」或「摘要工具」,而不是全面的搜尋引擎。 真實情況是:多數人每天還是需要查天氣、找餐廳、比價、看地圖、找官方文件——這些場景,AI工具目前還很難取代。ChatGPT的流量雖然驚人,但它的使用場景更偏向「理解問題」和「生成內容」,而不是「快速找到一個網頁」。所以流量數字懸殊,不代表用戶選擇了谷歌,而是用戶壓根還沒打算在AI工具上完成所有搜尋行為。 另一個容易被忽略的事:谷歌的搜尋基礎設施——索引量、在地化內容、即時新聞、地圖整合——是過去二十年累積下來的護城河。AI模型再強,目前也無法複製這個層級的實體覆蓋。 ChatGPT流量為什麼被低估? 日流量是ChatGPT的15倍,聽起來像是壓倒性差距,但這裡有個關鍵:ChatGPT的流量價值,不在於「搜尋次數」,而在於「任務完成度」。 很多使用者打開ChatGPT不是為了搜尋五個關鍵字,而是為了一個問題花五分鐘反覆對話。這代表每次造訪的「用戶意圖深度」完全不同。谷歌搜尋的流量很大一部分來自於「快速點擊、跳轉、離開」,而ChatGPT的流量來自於「持續互動」。 如果你只看次數,谷歌贏;如果你看「每次搜尋解決的問題複雜度」,ChatGPT正在快速拉近距離。 還有一個更重要的趨勢:ChatGPT 正在從「問答工具」轉向「執行工具」。當用戶開始在ChatGPT上直接完成訂票、寫信、整理資料、生成圖片,傳統搜尋的流量就會被侵蝕得更快。市佔90%的今天,反而是市場還沒真正反應這個變化的時刻。 谷歌的隱憂:市佔高不等於護城河深 市佔90%聽起來無懈可擊,但谷歌真正的風險不在於「今天有多少人用」,而在於「明天那些重度使用者還需不需要用」。 想像一個具體場景:一個開發者每天要查數次技術文件。過去他會打開谷歌,輸入「Python list comprehension syntax」,然後點擊第一個結果。現在他直接打開Codex或ChatGPT,輸入「寫一個用list comprehension過濾偶數的範例」,AI直接給他答案,還能附帶解釋。這個開發者不再需要谷歌。 同樣的場景發生在學生寫報告、行銷人員寫文案、翻譯工作者查詞——這些族群一旦養成「先問AI」的習慣,谷歌的搜尋流量就會一點一點流失。這就是所謂的「零點搜尋」的蠶食效應。 谷歌目前能維持市佔,靠的是「懶得換」的慣性,以及「日常簡單查詢」的剛需。但當AI工具持續降低使用門檻、增加整合能力,這些慣性用戶遲早會開始分流。 真正該關注的不是市佔,而是使用者行為的轉移 市佔率是一個落後指標。它反映的是「過去」,不是「未來」。真正值得關注的訊號,應該是:...
OpenAI 正在加速開發它的第一款手機,而且這不是一台「裝了 ChatGPT 的手機」,而是一台從底層為 AI Agent 設計的裝置。這件事比多數人想的更有意思,因為它不是在挑戰 iPhone 或 Android 的硬體,而是在挑戰「手機應該怎樣運作」這件事。 什麼是 AI Agent 手機?跟現在的手機有什麼不同? 現在你用手機叫外送,流程是:解鎖、滑到 Uber Eats、點餐、確認付款。AI Agent 手機的概念是,你直接說「幫我訂上次那間牛肉麵,半小時後送到」,然後手機自己完成一切。 這不是語音助理的升級版。Siri 或 Google Assistant...
OpenAI 最近做了一個不算轟動但很實際的調整:把 GPT-5.5 Instant 設為 ChatGPT 的預設模型。如果你有在留意,過去一兩週打開 ChatGPT,回覆速度明顯變快,而且回答變得更「乾脆」。這不是錯覺,而是底層模型換了。 這篇文章不是要講 benchmark 又破了多少,而是想討論一個更實際的問題:當一個模型變成「預設」,對日常使用的人來說,真正的改變在哪裡。 更快的回應,不只是快了一點 GPT-5.5 Instant 最快能感受到的差異是速度。過去 GPT-5.4 或更早版本,遇到複雜問題時,思考時間明顯較長。但 GPT-5.5 Instant 在同樣的問題上,思考時間縮短,而且不是犧牲品質來換速度。 舉個實際場景:寫一封英文商務郵件。過去你丟一段中文草稿給 ChatGPT,它可能要 5–8 秒才吐出完整版本。現在...
這幾天科技圈最震撼的消息,不是哪個新模型又跑贏了 benchmark,而是 Google 的 AI Overview 被爆出一個驚人數字:每小時向使用者傳播 5700 萬條錯誤資訊。背後驅動的 Gemini 模型,在某些測試中的錯誤率高達 9%。這些數字一出來,很多人第一反應是「Google 的 AI 完蛋了」,但實際情況比單純的「好或壞」更值得細看。 先搞清楚這件事的主角是誰。Google AI Overview 不是一個實驗性產品,它是直接嵌在 Google 搜尋結果頁頂端的生成式回答。當你搜尋「如何治療頭痛」「電器保養方法」或「某個歷史事件的日期」,Google 不再只給藍色連結,而是直接用 AI 生成一段摘要放在最上面。這項功能在...
ChatGPT 最近把「模型選擇器」做了一次很關鍵的改版:你不再先看到一串模型代號,而是改用 Instant、Thinking、Pro 這種「推理等級」來選。最值得先留意的不是名字變好懂,而是它把你每次使用 AI 的核心決策,從「選哪個模型」改成「這次要花多少時間換多少把握」。我的判斷是:這會讓大多數人的產出更穩,但也更容易把 Pro 當成萬用解而浪費成本。 這次到底新了什麼:從「模型」變成「推理檔位」 以前選擇器像在點菜:GPT-4o、o 系列、mini、preview……你得先記得每一道菜的口感。 現在則像在轉旋鈕: – Instant:速度優先,回答更快、互動更順。 – Thinking:願意多花一點時間,把推理鏈走完整,換比較穩的答案。 – Pro:把「慢、深、長」拉到更高檔位,適合需要反覆推敲、長輸出、或高風險決策的任務。 這不是小改介面,而是在把一個隱性成本(延遲、算力、你的耐心)變成顯性選項。 有些人會把它解讀成「官方承認某些模式比較聰明」。我會更保守一點:它是在教你用更直覺的方式管理品質與時間,而不是承諾每一檔都能神奇解鎖正確率。 今次更新最值得注意的 3 個升級點(而且都很實用) 1)...
亞馬遜在 4 月 30 日上線「Join the chat」AI 語音問答:你在商品詳情頁不用再翻規格、找 Q&A、滑評論,而是直接用語音跟一位「數位 AI 購物專家」對話,24 小時隨時問、隨時追問。最值得先留意的是——它把行動端購物最卡的那一段「看不完、找不到、懶得比」改成「邊逛邊問」。我的判斷是:這不是多了一個聊天入口,而是把導購從資訊陳列,推進到「陪你把疑慮說完」的階段。 當購物從閱讀變成對話,商品頁就不再是海報,而是接線生。 這次更新最值得盯的 3 個升級點(不是表面那個麥克風) 1) 從「單次提問」變成「多輪追問」,猶豫會被拆小、拆快 過去你在商品頁的典型流程是:先掃標題與賣點 → 滑規格表 → 看幾張圖 →...
上週蘋果官方 App 更新後,被眼尖的開發者發現安裝包內竟藏了一份 Claude.md 文件。更耐人尋味的是,蘋果在 24 小時內緊急刪除了這份文件,甚至沒有在更新日誌中解釋原因。這個舉動引發了 AI 圈一連串猜測:蘋果的 AI 戰略,到底還藏了多少我們不知道的牌? 到底發生了什麼?文件裡寫了什麼? 事情很簡單:某個蘋果官方 App(例如 Apple Store 或 Apple Music)的版本包中,被發現多了一個名為 Claude.md 的 markdown 檔案。根據流出的截圖,文件內容疑似是給開發者或測試人員的內部指引,明確提到了使用 Claude...
Visual Studio 四月更新替 GitHub Copilot 裝上三個關鍵零件:雲端 agent、Debugger agent、以及使用者級自訂 agents。它們共同把 Copilot 從「寫一行補一行」的輔助工具,推進到「你丟一個任務,它自己排隊把事做完」的工作模式。 最值得先盯緊的不是它又更會寫程式了,而是 IDE 裡的操作權正在移交:建置、跑測試、查錯、修正、再驗證,開始變成 Copilot 能主動推進的流程。 當 AI 開始排隊做事,Copilot 就不再是補字工具,而是 IDE 裡的助理工程師。 這次更新真正的主角:從「補全」到「任務型代理」 過去你用...
OpenAI 近期推出 **Advanced Account Security**,把 ChatGPT 與 Codex 的「帳號安全門檻」往上抬,重點不是新增一個花俏開關,而是:**對高風險帳號加強登入驗證與帳號恢復(找回)機制**。我認為這是一個明確訊號——生成式 AI 平台開始把「帳號」視為高價值資產:一旦被盜,失去的不只是對話紀錄,而是工作能力、工具權限,甚至可能波及資料品質與訓練流程。 AI 帳號被盜,不是聊天紀錄外洩而已,而是你的工作流程被接管。 ## Advanced Account Security 的主角:把「高風險帳號」的兩個入口鎖更緊 這次更新的主線很清楚: 1. **登入(Login)更難被冒用**:當系統判定帳號風險較高或登入情境異常時,會提高通過門檻。 2. **帳號恢復(Recovery)更難被社工突破**:找回流程變得更謹慎,降低被釣魚、SIM 卡交換、客服社工等手法鑽漏洞的機會。...
近期社群流傳一個說法:有人在 OpenAI Codex 的 CLI 開源程式碼與相關檔案中,疑似挖到 GPT‑5.5 的系統提示詞片段,裡面甚至包含「嚴禁模型主動討論『哥布林』等特定幻想生物」這類看似荒謬、但非常具指標性的指令。最值得先看的不是這個生物名詞本身,而是它透露了兩件事:Codex/GPT‑5.5 正把「基礎安全」往更底層、更硬的規則層推;同時也把「防幻覺」從模型能力問題,改成可被工程化管理的行為約束。 我的判斷是:如果這類提示詞片段屬實,它不是八卦,而是一個產品路線宣告——OpenAI 正在把 Codex 從「會寫程式的模型」推向「可長時間執行任務的工作夥伴」,而這條路一定伴隨更嚴格的內容界線與主題防範。你會覺得它更可靠,也會覺得它更愛管。 ## 「禁談幻想生物」到底在防什麼? 表面上看,禁止某些幻想生物或虛構題材很奇怪:這些東西通常不涉個資、不涉暴力教學,也不必然敏感。但把它放在「防幻覺」脈絡就合理了: – **模型很容易把虛構題材講成真的**:尤其是世界觀設定、族群史、詞源考據、偽百科式描述。 – **越是可被編造、越像知識的內容,越容易讓使用者誤信**:這類回答讀起來自信、結構完整,反而更危險。 所以,「禁談」可能不是道德審查,而是一種產品風險控管:對某些高幻覺風險主題直接踩煞車,避免模型主動帶風向、自己加戲。 有兩句話可以記住: – 內容過濾不是為了讓模型更乖,是為了讓它更可交付。...
微軟正式推出 Microsoft 365 E7(Frontier Suite)與 Microsoft Agent 365,把 Copilot、AI 代理人管理、以及企業級資安與治理綁成同一套「可上線、可追責、可控管」的工作模式。最值得先看的不是它又多會寫內容,而是:你終於能用管理帳號與權限的方式去管理「會做事的 AI」。我的判斷是,這次更新的關鍵不在於讓 AI 更聰明,而在於讓企業敢把 AI 代理人放進真實流程、接觸真實資料。 有些團隊會把它理解成「更貴、更完整的 Copilot 方案」。但如果你只用這個角度看,會錯過真正的轉折點:AI 代理人開始變成 Microsoft 365 裡的正式工作單位,而不是散落在聊天視窗、工作流程工具、或某個部門自建的小機器人。 ## 這次到底新了什麼:E7...
Gemini 現在可以在聊天中直接建立可交付的檔案:PDF、Microsoft Word/Excel,以及 Google Docs/Sheets/Slides 等,不必再把回覆複製貼上、自己排版成「可交差」的版本。最值得先看的不是它能輸出哪些格式,而是它把「對話」變成「產出」的最後一哩路:你在聊天室裡談清楚需求,下一步就能拿到可寄出、可協作、可歸檔的檔案。 我的判斷是:這次更新的重點不是 AI 變得更會寫,而是 AI 開始更像一個能交付成果的辦公室助理。當生成內容能直接落在文件、試算表、簡報裡,工作流程的摩擦成本會明顯下降,而你會更容易把 Gemini 納入日常,而不只是「問問題用」。 ## 以前的痛點:內容寫完了,但交付還沒開始 很多人用 AI 寫文案、整理會議重點、做報表說明,卡住的地方往往不在「想不到」,而在「做完」。 – 你拿到一段看起來很完整的回覆,卻還要開 Word 把標題層級、頁首頁尾、段落間距重排一次。 – 你要一份簡單的預算表,AI...