「港大論文引入 AI 虛構文獻、社科院副院長葉兆輝卸任」這宗事件,表面上是一篇研究文章的參考文獻出錯,最終撤稿與問責;但更深一層,它是一面照妖鏡,照出學術制度在 AI 時代最脆弱的三個地方:信任的設計、責任的分配,以及能力的培養。 如果我們把它當成「個別學生疏忽」就結案,那麼下一次同類事件只會更頻密、更隱蔽、更難抓;反過來,若我們把它視為「AI 正式入侵學術流程」的一次示警,就能從中讀到一個更重要的訊號:學術界正在由“文本時代”進入“生成時代”——而制度仍停留在上一個版本。 一、事件不只是「引用錯誤」:它是一種新型風險形態 過去的學術不端,通常有明確的道德框架:抄襲就是偷竊;造假就是欺騙。它們的共同點是:不端行為往往需要主觀意圖。 而「AI 虛構文獻」所帶來的麻煩,在於它可能並不依賴惡意——它是一種更像「系統性滑坡」的風險:你原本只是想「快啲整理文獻」「快啲寫初稿」「快啲交進度」,AI 就在你看不見的地方,替你把空格填滿,甚至把不存在的資料包裝成極像真的引用。你不一定覺得自己在造假,但你已經把一個不可核實的結構,放進一篇必須可被核實的學術文本。 這就是為什麼它比傳統學術不端更難防: 生成式 AI 最大的誘惑,是把“完成感”快速提供給你;但學術研究的核心,不是完成,而是可驗證。當完成感先於可驗證,學術就會開始崩。 二、真正的灰犀牛:驗證成本被轉嫁,導致全體「默契性失守」 事件帶來一個非常刺耳但關鍵的現實:AI 令產出成本下降,但令驗證成本上升。 在 AI 普及之前,寫一個像樣的 reference list,需要你真的閱讀、搜索、比對;這個成本本身就是一種「自然防火牆」。但...