近年來,隨著人工智能(AI)技術的快速發展,深度偽造(deepfake)語音詐騙已成為一大安全威脅,尤其在香港與台灣等地,相關詐騙案件呈現爆炸性增長。這種詐騙利用AI進行聲音克隆,能以極高的相似度模仿目標人物,是犯罪集團實施社會工程攻擊的新利器,造成極大的財務損失與信任危機。 首先,該類詐騙的核心技術是AI語音克隆,只需15至30秒的目標聲音樣本,例如來自社交媒體、公開影片甚至語音留言,即可透過如Eleven Labs、Speechify和Respeecher等工具製作出逼真的語音深度偽造。這種技術不僅模仿聲音音色,還可根據需求即時生成各種語句,令詐騙電話或錄音聽起來真實可信,騙子會冒充受害人親友或高階主管,聲稱遇到緊急狀況,如被綁架、急需保釋金或公司財務轉帳等,迫使對方匆忙轉賬。 統計數字令人震驚。2024年,全球聯絡中心的深度偽造詐騙活動暴增680%,詐騙嘗試也增加26%。保險業合成語音詐騙更飆升475%,零售聯絡中心中平均每127通電話就有1通為詐騙電話。至2025年上半年,深度偽造相關詐騙案件激增,全球累計損失高達8.97億美元,其中4.1億美元於今年上半年發生,幾乎是去年全年的四倍。 此類技術威脅之大,不僅限於普通民眾。2024年,一宗香港跨國企業財務人員因收到多段由深度偽造聲音與視頻組成的指令,誤以為是高層主管親自操作而匯出超過2,500萬美元,成為本地深偽詐騙的著名案例。此外,美國國務卿Marco Rubio的聲音也被偽造成電郵語音留言,試圖竊取敏感信息,儘管未成功,但凸顯深度偽造技術已被高度惡意利用。 傳統的身份驗證方法如知識問題驗證(KBA)及一次性密碼(OTP),對抗這種假聲偽裝的效果日益有限。研究指出,53%的詐騙者能通過KBA驗證,四分之一能通過OTP挑戰,甚至16%的案件涉及來電顯示偽造。專家建議組織及企業必須導入多因素驗證、活體檢測(real-time liveness detection)和風險評分,以加強防護。 面對這些威脅,防範措施必須同時注重個人和企業層面。在個人層面,應保持警覺,降低在公開平台分享語音錄音的頻率,因為詐騙者往往從TikTok、Instagram等社交媒體蒐集素材。家人與親友間亦需相互提醒,確保遇到緊急求助電話時進行多重核實,避免因情緒驟變而上當受騙。企業層面則應加快升級安全系統,利用多樣化的認證方式,以及加強員工教育和風險識別訓練。 除了語音深度偽造,AI技術還被用於生成極具欺騙性的電子郵件(phishing)、短訊(smishing)及AI驅動的社交媒體機械人操控,這些手法與深度語音詐騙相輔相成,共同推高詐騙的複雜度與嚴重性。專家預估,到2025年深度偽造詐騙可能再增長162%,聯絡中心詐騙損失將觸及445億美元,而零售業遭受的詐騙率可能翻倍至每56通電話就有1通詐騙案件。 總結而言,隨著AI語音克隆和深度偽造技術日益成熟與普及,這類詐騙正快速滲透至個人、企業甚至政府層面。防範之道在於提升認知、強化技術防護及跨部門合作。唯有用科技反制科技,並培養全民防詐意識,才能在這波AI詐騙浪潮中守護自身利益,減少社會損失。 #深度偽造 #AI語音克隆 #詐騙防範 #聯絡中心安全 #人工智能安全
OpenAI執行長Sam Altman近日公開表達了對年輕世代深度依賴ChatGPT這類人工智慧工具的擔憂,指出這種過度依賴可能帶來負面影響,甚至是危險的。他在2025年7月一次聯邦儲備銀行的公開場合中提到,不少年輕人已經不僅是將ChatGPT當作回答問題的搜尋引擎,而是進一步將其視為人生決策的依靠,甚至像是他們的「生活顧問」或日常操作系統,這種現象在20多歲至30多歲的世代尤為明顯,而大學生使用ChatGPT的深度和頻率則更高,許多人透過連結各種文件及預設指令整合AI於日常生活。 Altman談到,有年輕人會說:「我無法在沒有告訴ChatGPT我所有情況的前提下做任何決定,因為它了解我、了解我的朋友,我會依照它的建議去做。」這種情感上的依附,他認為令人非常不安,也暗示了AI帶來的「盲目信任」風險。他強調,人們不應該對AI抱有過度信任,因為AI本質上并非萬能,也存在錯誤和偏差的可能性。 這種情況不僅是個別現象,而是相當普遍的趨勢,一項針對1060名13至17歲青少年的調查顯示,約有72%的青少年至少使用過一次AI伴侶,而52%的人每月至少使用幾次AI工具,且其中有一半受訪者表示他們信任從AI那裡得到的建議。值得注意的是,年齡越小的青少年對AI的信任度越高,顯示年紀較輕的用戶更容易對AI產生依賴感。 除了情感依賴的問題,Altman也提到隱私和法律層面的挑戰。越來越多用戶將ChatGPT視作心理治療師或生活教練,進行敏感的心理諮詢。然而,這些與AI的對話並不享有和真正的心理醫師或律師一樣的法律保護,無法確保對話內容在法律訴訟中不被披露。OpenAI的政策指出,雖然用戶刪除的聊天記錄在30天內會被永久刪除,但依法律或安全需求仍有可能被保留。Altman強調,未來如何保障用戶與AI對話的隱私權,是一個亟需解決的重要議題。 此外,Altman也對社交媒體對兒童造成的心理影響表示擔憂,特別是在沉迷與成癮問題上。他認為,隨著AI技術越來越融入生活,如何在推動創新同時防範負面影響,將是未來重要的挑戰...
OpenAI執行長Sam Altman於2025年7月於華盛頓特區聯邦儲備委員會主辦的金融業研討會中,對即將來臨的AI驅動金融詐欺危機發出嚴重警告。他指出,隨著生成式人工智慧技術的日益成熟和普及,金融機構中常用的語音指紋身份驗證系統正變得極度脆弱,因為AI可以模仿客戶的聲音進行欺詐行為,使得這類防護措施「完全被突破」[1][3]。Altman直言依賴語音認證來進行大額資金調度是“瘋狂”的做法,並強調未來AI生成的聲音與視頻深度偽造(deepfake)將越來越難以分辨真偽,金融系統亟需迅速採用更新穩健的認證技術以避免重大安全漏洞[1][3]。 此外,Altman更警告說,不僅是語音欺詐技術,其它更危險的AI應用有可能對金融網絡發起大規模攻擊,甚至可能威脅公共安全,比如利用AI研發並散播生物武器,這些威脅速度和破壞力超越現有防禦措施[1]。這番話獲得聯邦儲備委員會監理副主席Michelle Bowman的呼應,她表示監管機構與科技企業之間的合作可能成為對抗AI詐欺的有效策略[1][3]。 在同一會議上,Altman也針對AI對勞動市場帶來的革命性影響提出警示,特別點名客戶服務產業已接近被AI完全取代的局面[2][4]。現今許多客戶服務中心已由AI系統接管,人工客服多數被快速、準確且不疲勞的AI取代。Altman強調:“當你打電話進客服中心時,回應你的已是超級智能且可靠的AI,它沒有任何繁瑣的按鍵選單或需轉接的問題,一通電話即可完成服務。這個轉變基本上已經完成。”此外,AI在醫療領域的應用也愈加精準,甚至在某些診斷方面勝過多數人類醫師,雖然Altman本人仍偏好有人類醫師在診斷過程中監控[2]。製造業中,AI則透過演算法掌控供應鏈與設備狀態,極大提升運作效率並降低設備停機時間[2]。創意產業如媒體與廣告也越來越倚賴AI來產生內容、個人化推薦及分析觀眾偏好,整體推動產業結構與經營模式的轉型...