香港網絡安全中心近期就名為 OpenClaw、外號「龍蝦」的工具/框架提出警告,特別強調其帶來的網絡風險可能「遠超」一般人對聊天式 AI 的想像。這類提醒值得重視,原因不在於「AI 一定更危險」,而是工具形態不同:聊天式 AI 多半停留在內容生成與對話層面;而可被用於自動化流程、整合外部資源、呼叫系統功能的工具,一旦落入不當使用情境,影響面就會更貼近真實攻擊鏈。 在不少攻擊事件中,真正造成損失的往往不是單一漏洞,而是「偵察 → 釣魚/入侵 → 橫向移動 → 權限提升 → 資料外洩或勒索」的連鎖動作。若某些工具能降低這些步驟的門檻、加速自動化、甚至把多個能力包成「一套可重複使用的流程」,那麼對企業與一般用戶而言,風險確實可能比「被 AI 生成假消息」更直接。 為什麼「不只是聊天式 AI」?你可以這樣理解差別 許多人談到 AI 風險,第一個想到的是:假資訊、深偽、詐騙話術更像真的。但香港網絡安全中心此類警告的核心,通常更接近「作業層面的威脅」: 自動化的攻擊腳本化:把原本需要技術門檻的動作,變成更易複製、可大量嘗試的流程。...