香港網絡安全中心近期就名為 OpenClaw、外號「龍蝦」的工具/框架提出警告,特別強調其帶來的網絡風險可能「遠超」一般人對聊天式 AI 的想像。這類提醒值得重視,原因不在於「AI 一定更危險」,而是工具形態不同:聊天式 AI 多半停留在內容生成與對話層面;而可被用於自動化流程、整合外部資源、呼叫系統功能的工具,一旦落入不當使用情境,影響面就會更貼近真實攻擊鏈。 在不少攻擊事件中,真正造成損失的往往不是單一漏洞,而是「偵察 → 釣魚/入侵 → 橫向移動 → 權限提升 → 資料外洩或勒索」的連鎖動作。若某些工具能降低這些步驟的門檻、加速自動化、甚至把多個能力包成「一套可重複使用的流程」,那麼對企業與一般用戶而言,風險確實可能比「被 AI 生成假消息」更直接。 為什麼「不只是聊天式 AI」?你可以這樣理解差別 許多人談到 AI 風險,第一個想到的是:假資訊、深偽、詐騙話術更像真的。但香港網絡安全中心此類警告的核心,通常更接近「作業層面的威脅」: 自動化的攻擊腳本化:把原本需要技術門檻的動作,變成更易複製、可大量嘗試的流程。...
近期香港接連出現兩條令人不安、但又極具「時代代表性」的新聞主線:一邊是大學校園出現疑似以 AI 合成方式製作「不雅影像」的爭議(俗稱「港大 AI 裸照事件」);另一邊是私隱專員公署(PCPD)首次在更宏觀層面,正式推出「給學校及家長」的深偽應對指引,明確提出:校方應盡量避免對外發布清晰可辨識的學生影像、家長亦要審慎上傳子女照片。 很多人第一反應都係:「咁係咪即係『唔好影相』、『唔好貼相』就解決?」但如果你把這件事當成單一的道德問題、或單一的法例漏洞,你會錯過它真正的核心:AI深偽令『影像』由紀錄變成武器;而學生私隱,已由「資料保護」升級為「人身安全與尊嚴」的議題。 以下我會用「按時序」先講清楚事件脈絡,再用幾個角度深入拆解:技術風險、校園制度、家長與平台責任、以及法律如何(未必)追得上。 一、事件時序:由校園爭議,到私隱署推出「家校錦囊」 1)校園事件曝光:AI 合成不雅影像引發社會震盪 「港大 AI 裸照事件」之所以引爆,是因為它把一個本來抽象的科技詞(AI DeepFake(深偽)),瞬間變成最具羞辱性、最具破壞力的現實情境:在未經同意下,利用他人照片作為原材料,生成帶有性意味或露骨內容的偽造影像。 即使你未掌握每一個細節,你都會感受到其中的恐懼:在 AI 時代,「一張普通合照」可能不再只是回憶,而是被移花接木、再創作、再散播的素材。 2)調查與公眾質疑:為何「難跟進」? 其後私隱專員公署曾表示因證據與合作因素而出現調查困難,並出現「暫停/終止跟進」的結果。這一點令不少市民感到無力:明明侵害感真實存在,為何制度上卻可以走到「證據不足」這一步? 這裡先留一個伏筆:因為深偽的本質,往往令「證據」與「責任」變得更難固定——尤其當內容未必公開散播、或受害人出於創傷與二次傷害顧慮而不願現身。 3)私隱署轉向「預防治理」:發布官方家校指引 就在這個背景下,私隱公署在 2025 年...