近期香港接連出現兩條令人不安、但又極具「時代代表性」的新聞主線:一邊是大學校園出現疑似以 AI 合成方式製作「不雅影像」的爭議(俗稱「港大 AI 裸照事件」);另一邊是私隱專員公署(PCPD)首次在更宏觀層面,正式推出「給學校及家長」的深偽應對指引,明確提出:校方應盡量避免對外發布清晰可辨識的學生影像、家長亦要審慎上傳子女照片。 很多人第一反應都係:「咁係咪即係『唔好影相』、『唔好貼相』就解決?」但如果你把這件事當成單一的道德問題、或單一的法例漏洞,你會錯過它真正的核心:AI深偽令『影像』由紀錄變成武器;而學生私隱,已由「資料保護」升級為「人身安全與尊嚴」的議題。 以下我會用「按時序」先講清楚事件脈絡,再用幾個角度深入拆解:技術風險、校園制度、家長與平台責任、以及法律如何(未必)追得上。 一、事件時序:由校園爭議,到私隱署推出「家校錦囊」 1)校園事件曝光:AI 合成不雅影像引發社會震盪 「港大 AI 裸照事件」之所以引爆,是因為它把一個本來抽象的科技詞(AI DeepFake(深偽)),瞬間變成最具羞辱性、最具破壞力的現實情境:在未經同意下,利用他人照片作為原材料,生成帶有性意味或露骨內容的偽造影像。 即使你未掌握每一個細節,你都會感受到其中的恐懼:在 AI 時代,「一張普通合照」可能不再只是回憶,而是被移花接木、再創作、再散播的素材。 2)調查與公眾質疑:為何「難跟進」? 其後私隱專員公署曾表示因證據與合作因素而出現調查困難,並出現「暫停/終止跟進」的結果。這一點令不少市民感到無力:明明侵害感真實存在,為何制度上卻可以走到「證據不足」這一步? 這裡先留一個伏筆:因為深偽的本質,往往令「證據」與「責任」變得更難固定——尤其當內容未必公開散播、或受害人出於創傷與二次傷害顧慮而不願現身。 3)私隱署轉向「預防治理」:發布官方家校指引 就在這個背景下,私隱公署在 2025 年...