在生成式 AI 快速滲透辦公軟體的今天,ChatGPT Excel 外掛與進階財務數據整合,正在重塑金融專業人士的日常工作。對於長期仰賴 Excel 進行財務建模與投資分析的產業來說,這不僅是工具升級,而是一場工作流程與風險管理邏輯的結構性變革。 為何「ChatGPT for Excel」是財務團隊的轉折點 金融與企業財務部門幾乎離不開 Excel: 從三表模型、估值模型、預算編列到風險壓力測試,試算表是整個決策流程的「運算引擎」。但過去幾年,Excel 也暴露出幾個痛點: 建模門檻高,新人需要數月甚至數年才能熟練 場景分析與版本控制繁瑣,極易出錯 財務數據來源分散,在不同系統與平台間來回複製貼上 高階人員浪費大量時間在重複性、機械化操作 ChatGPT for Excel 外掛的出現,等於把一個懂財務、懂 Excel 的...
大型語言模型蒸餾正成為當前 AI 戰略版圖上的關鍵詞,特別是在中美大模型競爭與技術擴散的脈絡下。當我們討論中國大型語言模型能否「追上甚至超越」美國前沿模型時,蒸餾究竟是決定性武器,還是被誇大的助攻工具,是一個值得冷靜拆解的問題。 本文聚焦於一個核心提問:蒸餾對大型語言模型的真正影響有多大? 什麼是大型語言模型蒸餾?從「知識轉移」到「合成資料」 在工程實務中,「蒸餾」已遠遠超出教科書中狹義的知識蒸餾定義。如今談的大型語言模型蒸餾,大致包含以下幾層意義: 使用更強模型的輸出,去訓練較小或較弱的模型 大量生成高品質合成資料(synthetic data),再用來微調或後訓練 在特定能力上進行「能力搬運」,例如推理、Agent 行為、工具調用等 換句話說,蒸餾已經不只是「壓縮一個模型」,而更像是用算力把一部分模型能力轉成資料資產,再讓自己的模型去學。 在當前 LLM 開發流程中,蒸餾與合成資料的重要性體現在: 補足人類標註資料的成本與稀缺 快速試驗新能力(如長鏈推理、複雜工具編排) 讓中型模型在特定場景逼近或超越巨型模型表現 也因此,當談到中國大型語言模型的突飛猛進時,外界自然會把目光聚焦到:這些模型到底從美國前沿 API 蒸餾了多少能力? 蒸餾操作的真實規模:數十億還是數千億 Tokens? 近期有國際公司公開指出,多家中國實驗室透過...
中國利用ChatGPT企圖發動對日本首相的影響操作,正把亞洲的資訊戰推向新階段。當中國執法機關被指試圖透過生成式AI策動跨國輿論戰時,日本與整個民主世界都被迫重新思考「政治安全」與「數位安全」之間的界線究竟在哪裡。 中國利用ChatGPT鎖定日本首相的案例:訊號大於成效 在最新曝光的一起事件中,一名與中國執法單位相關的使用者,被指多次利用大型語言模型,要求協助設計一場針對日本首相高市早苗的線上影響操作。內容包含: 批量生成負面留言與輿論帶風向文案 捏造關於移民政策與生活成本的民怨投訴 將高市描繪成極右派、軍國主義與歷史修正主義者 利用關稅與對美國不滿情緒,將憤怒導向日本政府 同時加入歌頌內蒙古人權與經濟狀況的宣傳內容 由於模型本身的安全防護拒絕了這類明顯帶有操弄目的的請求,相關帳號最後遭到封鎖。但後續發現,同一名使用者之後仍回到系統,請求協助潤飾「行動成果報告」,內容顯示該場影響操作已改用其他本地AI工具繼續推進。這透露出一個關鍵事實:就算某一款國際主流AI系統設有限制,真正有意進行資訊戰的行為者,仍可輕易改用不設防或本地部署的模型來達成目的。 更值得注意的是,這名使用者在報告中提到,相關「特別行動」橫跨數百個海外與中國國內平台,以數千個帳號散布數萬篇內容,甚至對在外異議人士、人權團體與批評者展開長期騷擾與抹黑。從資訊戰角度看,這已不再是零星的「網路帶風向」,而是工業化的「數位鎮壓作戰」。 從網路水軍到生成式AI:影響操作的全面升級 中國的線上影響操作並非今日才出現。過去多年,外界已多次揭露,大量「網路水軍」與虛假帳號長期在各國社群平台上推送親中敘事、攻擊批評者,並干預他國政治議題。不同的是,生成式AI的出現,讓這種操作從「人海戰術」升級為「演算法放大」。 在這起針對日本首相的案件中,可以清楚看到幾項關鍵升級趨勢: 內容產能倍增:AI可以在短時間內生成大量不同語氣、不同語言版本的貼文,大幅降低「洗版」成本。 語言與在地化門檻下降:透過自動翻譯與在地化調整,外國操作者可以「講出像當地人會說的話」,降低被識破的難度。 精準投放與心理操作:在掌握關鍵詞、熱門議題後,AI能快速產出貼近特定族群焦慮的敘事,例如「年輕世代被社福負擔壓垮」這類情緒化說法。 內部作業也AI化:不只對外發文,連內部行動報告、成效追蹤與策略調整也由AI協助撰寫,讓整個資訊戰行動更像一條完整的「數位產線」。 這些能力疊加起來,即使單一行動的外部成效有限(例如數萬篇貼文中真正有高互動者極少),也象徵一種長期、結構化的施壓機制:讓所有批評者都知道,自己隨時可能成為下一波「輿論攻擊」的目標。 為何鎖定日本首相高市早苗? 高市早苗成為中國影響操作鎖定的對象,絕非偶然。近年來,她在國安與對中政策上的立場鮮明,包括: 對台灣安全採取較為明確的支持姿態 將可能的台海危機視為日本的「生存威脅」 對中國內部人權議題,例如內蒙古民族政策,提出公開批評 這些立場直接撞上北京的「紅線」,在戰略思維上就會被視為必須被削弱公信力的對象。於是,我們在這次曝光的行動計畫中看到幾個典型手法:...
AI 聊天機器人辨識 AI 生成影片的能力,正在成為資訊安全與選舉公信力的關鍵議題。當深偽技術與文字轉影片模型愈來愈強大時,如果連 AI 聊天機器人本身都難以分辨 AI 生成影片與真實畫面,我們對「數位真相」的基本假設就必須全面重寫。 AI 聊天機器人為何難以辨識 AI 生成影片? 多數人直覺會以為:既然聊天機器人是 AI,理論上應該更懂得如何識破 AI 生成影片。事實剛好相反,現階段的主流程設計,主要是為了「理解與生成內容」,而不是為了「鑑定真偽」。 技術架構上的天生盲點 當前主流 AI 聊天機器人(包括 ChatGPT、Gemini、Grok 等)多半是: 以文字大型語言模型為核心 再疊加影像、影片理解能力,變成多模態模型...
生成式 AI 正在重塑數位廣告版圖,而「ChatGPT 廣告」無疑是這場變革的核心關鍵。當全球用戶把各種生活與工作決策搬進對話式 AI,中長期來看,這不只是一項新功能,而是一個足以改寫 Google、Meta 等巨頭遊戲規則的廣告新戰場。 生成式 AI 與 ChatGPT 廣告:為何是廣告業的下一個爆點? 與傳統搜尋廣告或社群廣告不同,生成式 AI 的互動是「連續對話」而非「單次點擊」: 使用者會在 ChatGPT 裡規劃旅遊、比較產品、設計行銷策略、研究投資工具 這些對話高度具備「商業意圖」,遠比滑過一則動態牆貼文更接近最終決策 AI 能即時理解上下文,精準判斷使用者處在決策旅程的哪一個階段 當一個擁有數以億計活躍用戶的對話式 AI,開始提供 ChatGPT...
AI人才搶人戰已經不是誇飾用語,而是當前科技產業最真實的寫照。從天價股權激勵到數億美元等級的薪酬方案,這場 AI 人才搶人戰正悄悄改寫全球就業與薪資版圖。 AI人才搶人戰背後:資本、技術與壟斷野心 要理解為何企業願意在 AI 人才上砸下天文數字,必須先看這三個關鍵: 資本對成長故事的渴望 技術路線的寡頭化趨勢 對未來壟斷地位的想像 第一,生成式 AI 與大模型已被資本市場視為下一個「基礎設施級」技術,誰能率先建立壟斷級平台,未來就可能在雲端、廣告、企業服務等多個賽道收割長期超額利益。 第二,大模型屬於「贏家通吃」特性明顯的領域:資料、算力與頂尖研究人才高度集中,落後者很難透過砸錢短時間追上,因此所有巨頭都在搶同一批人。 第三,真正能拉開差距的,不再是一般軟體工程師,而是少數懂模型原理、能推進前沿研究、又能落地產品的複合型 AI 人才,市場自然願意用極端溢價換取他們的時間與創造力。 500億美元級股權激勵:用股票買未來 近幾年,有領先的 AI 企業直接設立約 500 億美元規模的股票激勵池,金額大約相當於公司估值的一成,專門用來在五年內綁住 AI...
OpenAI 收購 Convogo 團隊:AI 雲端與主管教練工具的關鍵一役 OpenAI 收購高階主管教練 AI 工具 Convogo 背後的團隊,再次把「acqui-hire 人才併購」與「AI 雲端平台」推上焦點。這不只是另一宗 AI 產業併購,而是大模型公司如何搶占企業級應用入口的縮影,尤其是在領導力發展、HR 科技與顧問服務這三大場景。 Convogo 的產品聚焦高階主管教練與顧問市場,協助自動化領導力評估、回饋報告與相關文字工作。如今產品將被陸續關閉,而核心團隊則轉向為 OpenAI 打造 AI 雲端能力,這個轉折本身就說明了產業優先順序正在改寫。 為何 OpenAI...
美國一名聯邦法官近日裁定,馬斯克控告OpenAI的訴訟可以進入正式審判程序,而不是在程序階段即遭駁回。 這起「馬斯克控告OpenAI」的案件,表面上是創辦人決裂與股權爭奪,實際上卻是一場關於 AI 未來治理模式的公眾公投:究竟「非營利使命」能否在龐大的資本與權力壓力下存活? 在生成式 AI 爆炸成長、各國監管仍追趕不及的此刻,這宗訴訟為產業敲響了一記警鐘:AI 創新若完全交給董事會與投資人決定,社會能否接受其外部成本與風險? 馬斯克控告OpenAI:不只是私人恩怨 這場訴訟的核心,是對「非營利轉營利」的強烈質疑。指控的主軸可以概括為三點: 當初以「非營利、造福人類」為號召,吸引捐助與人才加入 隨著技術突破與商業機會浮現,組織結構逐步轉向營利導向 重大商業合作與資本挹注,讓外部投資人與合作夥伴取得實質影響力 從外界角度來看,這起OpenAI訴訟不只關乎合約條款是否被違反,更關乎一個根本問題: 當 AI 實驗室從「為公益」轉向「為獲利」時,原本對社會做出的承諾,還算數嗎? 非營利轉營利,引爆的三大結構性爭議 1. 公共利益 vs 股東利益:誰說了算? AI 的特殊之處在於,它同時是:...
在AI時代,教育現場正經歷前所未有的震盪。生成式AI與ChatGPT等工具,不只改變學生寫作業的方式,也正在重塑老師教學、評量與學術誠信的基本規則。 AI時代下的教育:當「完美作業」變成警訊 過去,數位學習代表的是線上選課、下載教材、利用搜尋引擎蒐集資料,學生仍需花時間閱讀、整理與消化資訊,老師也能從作業風格與錯誤模式判斷學習狀況。 如今,生成式AI出現後,很多老師開始發現: 作業答案出奇一致、幾乎沒有錯字或計算錯誤 英文作文用字華麗,卻與學生平時口語或課堂表現明顯脫節 報告架構完整,但缺少個人觀點與原創思考 這些「近乎完美」的作業,不再是值得高興的成就,而是師生互信被動搖的警訊。老師不知道該相信誰的努力,學生也擔心被誤判作弊,雙方都在不安中前進。 學生用ChatGPT寫作業:偷懶,還是新型學習? 討論AI教育時,一個最常見的問題是:「學生用了ChatGPT,是不是代表不用讀書了?」 事實上,學生使用AI的動機與方式非常多元: 為了「趕作業」:把題目貼進去,直接複製答案 為了「查觀念」:請AI用簡單文字解釋艱深概念 為了「整理資訊」:讓AI彙整長篇資料、幫忙抓重點 為了「潤飾語言」:請AI改寫句子、修正文法 問題不在於學生是否使用AI,而在於: 他們是否仍有「自己思考」? 他們是否能分辨AI回答的錯誤與偏誤? 他們是否清楚在何種情境下,使用AI已經違反學術誠信? 近年有調查顯示,使用AI聊天機器人完成作業的青少年比例在短時間內幾乎翻倍成長,這代表「AI輔助學習」已成新常態。若教育仍假裝這件事不存在,只會讓誠實面對工具的學生處於不利位置,讓偷偷使用的人繼續鑽漏洞。 老師用AI備課:被取代,還是升級? 在另一端,許多老師也開始用生成式AI備課、出題、整理教材: 請AI根據課綱產生練習題與解答 要AI幫忙設計生活化的數學情境題...
用AI出貓正迅速成為香港學界的新難題,尤其在口試與寫作評核上愈演愈烈。當學生利用生成式AI寫演講稿、作文甚至整份報告時,老師與同學面對的,不只是一次單純的作弊事件,而是一場關於信任、公平與教育方向的大考驗。 為何學生愈來愈傾向用AI出貓? 在不少家長和老師眼中,「用AI出貓」似乎難以理解,但對學生來說,這往往只是「順手一試」的選擇。背後有幾個關鍵原因: 工具極度易得:智能手機、平板、家中電腦隨處可見,只要輸入題目,AI便能在幾秒內生成完整演講稿或文章。 學業與評分壓力沉重:呈分試、升中派位、校內排名等壓力,令部分學生寧願鋌而走險,以「靚分數」為首要目標。 對AI出貓的道德感模糊:不少學生會認為:「我只是用AI幫手改寫,不算抄襲。」這種灰色地帶令紀律教育更具挑戰。 家長與老師對AI理解不足:成年人本身對AI工具的掌握有限,更難向子女清楚解釋「何謂合理使用、何謂作弊」。 當上述因素交織,「用AI出貓」便從個別學生的秘密行為,逐漸變成班級之間口耳相傳的小道「攻略」。 口試與演講評核:AI出貓最易「出事」的場景 語文說話評估、演講考試,本來是要測試學生的語言組織、即場表達與臨場反應。但在AI盛行的年代,以下幾個風險急速上升: 有學生提早得知題目,用AI生成完整演講稿再背誦。 有學生在候考期間偷用手機,輸入題目後即時取得「完美稿」。 老師若未有嚴密監察與清楚規範,很難第一時間察覺內容是否「人手」或「AI製造」。 一旦有人用AI出貓被揭發,學校為維持評核公平,很可能只能選擇「全班重考」。在未有成熟處理機制之前,這種集體後果往往會產生幾重副作用: 守規矩的學生感到極度不公平 班級氣氛轉趨緊張與對立,互相猜疑 家長對學校判斷與安排提出質疑 這些看似只是一宗學校紀律個案,其實折射出整個制度對AI時代準備不足的脆弱。 AI出貓與傳統作弊有何不同? 有人會問:用AI出貓,不就是另一種「抄答案」嗎?事實上,兩者有幾個關鍵差異: 1. AI是「隱形槍手」 傳統作弊常見的是: 把小抄帶入考場...
生成式 AI 時代的「ChatGPT 廣告」難題:便利、金錢與信任的三角拉扯 生成式 AI 正在成為新一代網絡入口,而「ChatGPT 廣告」這個關鍵字,已經不再只是遙遠的想像。當聊天機械人從實驗玩具變成日常基礎設施,如何變現、是否應該加入廣告,以及廣告會如何改變我們獲取資訊的方式,正在成為產業與用戶都無法迴避的現實問題。 ChatGPT 廣告:從理想訂閱制走向混合模式 早期的生成式 AI 服務,喜歡把自己包裝成「高級訂閱工具」: 你付月費,我給你乾淨、不被廣告干擾的體驗。 但隨著模型變大、用戶暴增、雲端運算與 GPU 成本居高不下,單靠訂閱費支撐一切變得愈來愈困難。 於是,以下幾個現實因素開始推動「ChatGPT 廣告」模式浮上檯面: 推理成本(Inference cost)仍非常昂貴:每一次對話背後都是大量運算,即使成本逐年下降,用戶一多仍然是天文數字。 免費用戶占比高:多數人習慣免費使用,真正願意付費的比例往往只是少數菁英或重度使用者。 投資人期望現金流:燒錢換增長可以撐一陣子,但不能永遠,最現實的收入模式仍然是廣告與電商分成。 結果是:...
真人社群媒體正成為科技業下一個高風險賭注。當充斥機器人帳號與假內容的社群平台逐漸失去信任,主打「只允許真人」的新一代社群服務,開始被視為重建網路信任的可能解方。 為何「真人社群媒體」突然變得重要? 近兩年,社群平台正面臨三個同時惡化的問題: – 機器人帳號與假帳號失控成長 – 由 AI 生成的內容難以分辨 – 使用者對演算法與平台決策的信任急速下滑 傳統做法多半只是強化「風紀股」功能:下架內容、封鎖帳號、要求手機號碼與電子郵件驗證。但在生成式 AI 爆發後,這些手段已越來越無力。只要能買到一批門號或簡訊服務,機器人帳號就能源源不絕地被自動建立。 因此,「真人社群媒體」的核心不再是調整演算法,而是換一個根本邏輯: 不是問「這則貼文真的假的?」而是先問「發文的到底是不是人?」 生物特徵驗證:從「是真人」開始的社群設計 為了實現只允許真人的社群平台,最直接的技術路徑就是「生物特徵驗證」。也就是以人的臉部、虹膜等不可輕易複製的特徵,作為「這是一個真實個體」的憑證。 與傳統社群平台相比,兩者的邏輯差異明顯: 傳統社群平台 依賴手機、電子郵件、裝置指紋、行為模式 認證的是「一組帳號是否看起來像正常使用者」 容許一個人持有多個帳號,甚至完全匿名 真人社群媒體...