
近年來,隨著人工智能(AI)技術的快速發展,深度偽造(deepfake)語音詐騙已成為一大安全威脅,尤其在香港與台灣等地,相關詐騙案件呈現爆炸性增長。這種詐騙利用AI進行聲音克隆,能以極高的相似度模仿目標人物,是犯罪集團實施社會工程攻擊的新利器,造成極大的財務損失與信任危機。
首先,該類詐騙的核心技術是AI語音克隆,只需15至30秒的目標聲音樣本,例如來自社交媒體、公開影片甚至語音留言,即可透過如Eleven Labs、Speechify和Respeecher等工具製作出逼真的語音深度偽造。這種技術不僅模仿聲音音色,還可根據需求即時生成各種語句,令詐騙電話或錄音聽起來真實可信,騙子會冒充受害人親友或高階主管,聲稱遇到緊急狀況,如被綁架、急需保釋金或公司財務轉帳等,迫使對方匆忙轉賬。
統計數字令人震驚。2024年,全球聯絡中心的深度偽造詐騙活動暴增680%,詐騙嘗試也增加26%。保險業合成語音詐騙更飆升475%,零售聯絡中心中平均每127通電話就有1通為詐騙電話。至2025年上半年,深度偽造相關詐騙案件激增,全球累計損失高達8.97億美元,其中4.1億美元於今年上半年發生,幾乎是去年全年的四倍。
此類技術威脅之大,不僅限於普通民眾。2024年,一宗香港跨國企業財務人員因收到多段由深度偽造聲音與視頻組成的指令,誤以為是高層主管親自操作而匯出超過2,500萬美元,成為本地深偽詐騙的著名案例。此外,美國國務卿Marco Rubio的聲音也被偽造成電郵語音留言,試圖竊取敏感信息,儘管未成功,但凸顯深度偽造技術已被高度惡意利用。
傳統的身份驗證方法如知識問題驗證(KBA)及一次性密碼(OTP),對抗這種假聲偽裝的效果日益有限。研究指出,53%的詐騙者能通過KBA驗證,四分之一能通過OTP挑戰,甚至16%的案件涉及來電顯示偽造。專家建議組織及企業必須導入多因素驗證、活體檢測(real-time liveness detection)和風險評分,以加強防護。
面對這些威脅,防範措施必須同時注重個人和企業層面。在個人層面,應保持警覺,降低在公開平台分享語音錄音的頻率,因為詐騙者往往從TikTok、Instagram等社交媒體蒐集素材。家人與親友間亦需相互提醒,確保遇到緊急求助電話時進行多重核實,避免因情緒驟變而上當受騙。企業層面則應加快升級安全系統,利用多樣化的認證方式,以及加強員工教育和風險識別訓練。
除了語音深度偽造,AI技術還被用於生成極具欺騙性的電子郵件(phishing)、短訊(smishing)及AI驅動的社交媒體機械人操控,這些手法與深度語音詐騙相輔相成,共同推高詐騙的複雜度與嚴重性。專家預估,到2025年深度偽造詐騙可能再增長162%,聯絡中心詐騙損失將觸及445億美元,而零售業遭受的詐騙率可能翻倍至每56通電話就有1通詐騙案件。
總結而言,隨著AI語音克隆和深度偽造技術日益成熟與普及,這類詐騙正快速滲透至個人、企業甚至政府層面。防範之道在於提升認知、強化技術防護及跨部門合作。唯有用科技反制科技,並培養全民防詐意識,才能在這波AI詐騙浪潮中守護自身利益,減少社會損失。
#深度偽造 #AI語音克隆 #詐騙防範 #聯絡中心安全 #人工智能安全
追蹤以下平台,獲得最新AI資訊:
Facebook: https://www.facebook.com/drjackeiwong/
Instagram: https://www.instagram.com/drjackeiwong/
Threads: https://www.threads.net/@drjackeiwong/
YouTube: https://www.youtube.com/@drjackeiwong/
Website: https://drjackeiwong.com/