「港大論文引入 AI 虛構文獻、社科院副院長葉兆輝卸任」這宗事件,表面上是一篇研究文章的參考文獻出錯,最終撤稿與問責;但更深一層,它是一面照妖鏡,照出學術制度在 AI 時代最脆弱的三個地方:信任的設計、責任的分配,以及能力的培養。
如果我們把它當成「個別學生疏忽」就結案,那麼下一次同類事件只會更頻密、更隱蔽、更難抓;反過來,若我們把它視為「AI 正式入侵學術流程」的一次示警,就能從中讀到一個更重要的訊號:學術界正在由“文本時代”進入“生成時代”——而制度仍停留在上一個版本。
一、事件不只是「引用錯誤」:它是一種新型風險形態
過去的學術不端,通常有明確的道德框架:抄襲就是偷竊;造假就是欺騙。它們的共同點是:不端行為往往需要主觀意圖。
而「AI 虛構文獻」所帶來的麻煩,在於它可能並不依賴惡意——它是一種更像「系統性滑坡」的風險:
你原本只是想「快啲整理文獻」「快啲寫初稿」「快啲交進度」,AI 就在你看不見的地方,替你把空格填滿,甚至把不存在的資料包裝成極像真的引用。你不一定覺得自己在造假,但你已經把一個不可核實的結構,放進一篇必須可被核實的學術文本。
這就是為什麼它比傳統學術不端更難防:
- 它不一定靠「偷」,而是靠「似」
- 它不一定靠「瞞」,而是靠「快」
- 它不一定靠「壞人」,而是靠「舊流程遇上新工具」
生成式 AI 最大的誘惑,是把“完成感”快速提供給你;但學術研究的核心,不是完成,而是可驗證。當完成感先於可驗證,學術就會開始崩。
二、真正的灰犀牛:驗證成本被轉嫁,導致全體「默契性失守」
事件帶來一個非常刺耳但關鍵的現實:
AI 令產出成本下降,但令驗證成本上升。
在 AI 普及之前,寫一個像樣的 reference list,需要你真的閱讀、搜索、比對;這個成本本身就是一種「自然防火牆」。但 AI 把這道牆拆掉:你可以在極短時間內生成一份看起來完全專業的引用列表——甚至格式比真人做得更漂亮。
問題在於:核對每一條引用的真實性,是非常痛苦的工作。它既不「有成就感」,又不「容易被量化」,更不會在 KPI 上直接加分。於是學術共同體便形成了一個危險默契:
- 學生相信 AI 的整理
- 導師相信學生的整理
- 同行評審相信作者的引用
- 期刊流程相信同行評審
- 最後大家一起相信「應該無事」
直到有人逐條去查,信任才瞬間破裂。
這就是灰犀牛:它明明站在那裡,所有人都知道「遲早會出事」,但因為驗證成本太高、誘因不足、責任不清,大家寧願把它當作背景噪音。
三、通訊作者爭議的核心,不是「誰背鍋」,而是「責任鏈斷裂」
事件一出,最容易引發公眾情緒的,是「通訊作者責任」。有人會問:你署名做通訊作者,就代表你要負最終責任,點解會放過咁多條有問題的引用?
但若我們只停留在「究竟係咪逐字逐句睇過」,其實會錯過更深的問題:學術署名制度是否已經由“責任制”變成“績效制”?
在不少研究環境裡,署名有時是一種學術資本的配置方式:
- 導師掛名,提高文章的可信度與通過率
- 團隊互相署名,換取產出量
- 大型研究群組中,通訊作者未必能逐條核對所有細節
當制度獎勵的是「產出數量」與「版面曝光」,而不是「驗證品質」,那麼“責任”就會慢慢變成形式。
因此,通訊作者危機真正提醒我們的不是「某人有冇睇reference」,而是:
在 AI 時代,責任鏈必須重新設計,不能再依靠“大家應該會睇過”這個假設。
這也解釋了為何公眾會感到震撼:因為這不是一個人失誤,而是整條責任鏈都出現了「默契性放過」。
四、同行評審與出版制度的破口:我們一直用「信任」換「效率」
同行評審的設計,本質上是一種成本管理:
它不是要做到「逐字逐句驗證每個細節」,而是用有限時間,對研究方法、理論、結論做合理評估。
但 AI 把「細節造假」變得太便宜了,導致同行評審的成本模型失效。以往 references 出錯,多數是零星錯字、年份顛倒、頁碼不全;現在則可能出現「批量幽靈文獻」,而且外觀完美、語感專業。
於是學術出版遇到一個兩難:
- 若要加強核查(逐條驗證引用),成本會大幅上升,出版流程變慢
- 若不加強核查,可信度會被侵蝕,撤稿率、爭議與公眾不信任會上升
換句話說:AI 把“效率與信任”這筆交易的代價抬高了。
以前我們用信任換效率,代價可控;現在代價開始失控。
這就是制度版本不匹配:舊制度以為「引用真實」是低風險假設,但 AI 令它變成高風險假設。
五、教育制度最深的問題:我們教了「工具」,卻沒教「懷疑」
事件後,最常見的補救措施是「加強 AI 培訓」。但要小心:如果培訓只是教“點樣用 AI 更快”,那其實是在加速問題。
真正需要被制度化的,是三種能力的回歸:
1) 驗證能力:把「查證」重新變成研究者的核心技能
研究訓練不只是學會用資料庫搜尋,更要學會核對來源、確認出版資訊、理解 DOI 與出版社頁面、辨識假期刊與假論文格式。
AI 時代的文獻整理,應當以「可追溯」為第一原則,而不是以「看起來完整」為第一原則。
2) 批判性閱讀:把 AI 輸出視為「草稿」,而不是「答案」
AI 不會為真實性負責,它只會為「像真」負責。
學生若沒有被訓練出一種本能:看到引用就想去驗證,那麼 AI 的“專業外觀”就會成為新的權威幻覺。
3) 慢科學:把「嚴謹」從情懷變成制度誘因
當「Publish or Perish」成為唯一遊戲規則,AI 只會成為更強的加速器。
教育制度要做的是:把嚴謹核證納入可見的評價體系,例如研究計劃書要求列明查證流程、引用核查抽查機制、AI 使用披露要求,甚至把「核證紀錄」作為評分的一部分。
我們要教的不只是“用 AI 做得更快”,而是“用 AI 之後如何更準”。
六、學術自主與人機協作:真正的邊界不是「用唔用」,而是「可唔可追溯」
很多人會把問題簡化成:「學術寫作應否禁用 AI?」
這種問法其實不太準確,因為 AI 在語言潤色、程式輔助、資料清洗、統計分析等方面,確實提升效率,也可能提升品質。
真正的分界線應是三個原則:
1) 透明披露:用咗就要講
就像你用咗統計軟件、用咗某個資料集,你都會在方法學披露;AI 也應如此。
披露不是羞恥,而是學術可重複性的一部分。
2) 最終核實權:AI 不能取代責任人
AI 可以建議、整理、草擬,但每一個被放進論文的事實、引用、數據、推論,最終要有「人」簽名負責。
3) 可追溯紀錄:把過程留痕
未來的研究可能需要像「版本控制」一樣:
哪些段落由 AI 草擬、哪些由人修改、引用從哪個資料庫匯出、核對由誰完成。
當出事時,不再靠口供,而靠流程證據。
這三點,才是 AI 時代學術自主的底線:不是禁用,而是可追溯;不是怕 AI,而是防止責任真空。
結語:學者的價值正在轉移——從「生產知識」到「守護真實」
這宗事件最具啟發性的地方,在於它迫使我們承認:
當 AI 能以幾秒速度生成「像真的學術文本」,學者的稀缺價值就不再是“寫得出”,而是“判得準”。
未來學術界最重要的角色,可能不再是「最快寫到的人」,而是「最能驗證的人」:
- 驗證資料
- 驗證引用
- 驗證推論是否站得住
- 驗證 AI 生成內容的可靠性邊界
修復的從來不只是一篇撤稿的論文,而是整個社會對知識制度的信任。
而要修復信任,就不能只靠道德呼籲;我們必須重新設計制度:把查證能力制度化,把責任鏈清晰化,把 AI 使用透明化。
當科技越來越擅長「生成」,人類更要擅長「鑑別」。
這才是這宗事件最深層的意義——也是 AI 時代每一所大學、每一位研究者、甚至每一個使用 AI 的普通人,都必須面對的共同課題。
追蹤以下平台,獲得最新AI資訊:
Facebook: https://www.facebook.com/drjackeiwong/
Instagram: https://www.instagram.com/drjackeiwong/
Threads: https://www.threads.net/@drjackeiwong/
YouTube: https://www.youtube.com/@drjackeiwong/
Website: https://drjackeiwong.com/