香港網絡安全中心近期就名為 OpenClaw、外號「龍蝦」的工具/框架提出警告,特別強調其帶來的網絡風險可能「遠超」一般人對聊天式 AI 的想像。這類提醒值得重視,原因不在於「AI 一定更危險」,而是工具形態不同:聊天式 AI 多半停留在內容生成與對話層面;而可被用於自動化流程、整合外部資源、呼叫系統功能的工具,一旦落入不當使用情境,影響面就會更貼近真實攻擊鏈。 在不少攻擊事件中,真正造成損失的往往不是單一漏洞,而是「偵察 → 釣魚/入侵 → 橫向移動 → 權限提升 → 資料外洩或勒索」的連鎖動作。若某些工具能降低這些步驟的門檻、加速自動化、甚至把多個能力包成「一套可重複使用的流程」,那麼對企業與一般用戶而言,風險確實可能比「被 AI 生成假消息」更直接。 為什麼「不只是聊天式 AI」?你可以這樣理解差別 許多人談到 AI 風險,第一個想到的是:假資訊、深偽、詐騙話術更像真的。但香港網絡安全中心此類警告的核心,通常更接近「作業層面的威脅」: 自動化的攻擊腳本化:把原本需要技術門檻的動作,變成更易複製、可大量嘗試的流程。...
Claude Code Security 之所以引發討論,不只因為它把「AI 寫程式」拉進企業開發流程,更關鍵的是:它把資安從事後的掃描與稽核,往前推到「需求—撰寫—提交—部署」的每一步。 在過去,多數團隊依賴 SAST/DAST、依賴套件掃描、WAF 或雲端防護來補洞;但 AI 生成程式碼的普及,讓漏洞不再只是「工程師不小心」,而是「產出速度暴增、審查壓力倍增」。Claude Code Security 所代表的趨勢,是把安全規範、資料邊界與修補建議,直接嵌入 AI 輔助開發之中,形成「安全即預設值(secure by default)」的新工作方式。 從工具到流程:它在改變什麼? Claude Code Security 的價值通常不在「多一套掃描器」,而在於把安全決策前移並具體化: 在撰寫階段即提醒風險:例如輸入驗證、SQL/NoSQL 注入、XSS、SSRF、權限繞過、祕密金鑰外洩等,讓開發者在提交前就修掉。...
在生成式 AI 代理快速普及的背景下,OpenClaw 整合 VirusTotal 掃描的舉措,看起來像是一劑強心針。OpenClaw 整合 VirusTotal 掃描,確實為 ClawHub 技能市集多加了一層威脅偵測防線,但若把這視為萬靈丹,企業反而會低估整個 AI 代理生態系的結構性風險。 OpenClaw、ClawHub 與 AI 代理:便利背後的攻擊面 OpenClaw 是一個開源「代理式」AI 平台,能透過「技能」來呼叫各種工具、服務與 API,從控制智慧家電到處理財務工作都能自動化完成。 這樣的「AI 代理」具備幾個關鍵特徵: 能理解自然語言指令...