以為人臉辨識加上步態識別技術已經為人類帶來徹底性的監控災難?所謂「道高一尺,魔高一丈」!最近東北大學(Northeastern University)和麻省理工學院華森人工智慧實驗室(MIT-IBM Watson AI Lab)研發出一種特殊圖案,穿上印有此圖案之T恤後就能避過人工智能(AI)人臉辨識系統監控,讓穿著者在監控鏡頭前「消失」。
按前文提及,人臉辨識系統先把面容特徵標記下來,這些特徵包括面容形狀、眉毛、眼睛、嘴巴等等。然後創建128個編碼值的面部標記,輸入到人工智能模型進行訓練。要欺騙 AI,可以利用生成對抗網路(Generative Adversarial Network GAN)方法,早前介紹Deepfake文章有講解過相關技術。
這種反AI技術的對抗性設計旨在“欺騙”所採用之演算法,讓它提取特徵與真實的有差別,甚至乎什麼也提取不到。對於人類來說,這種變化可能是難以察覺;但是對於機器演算法來說,它可能非常有效。
跟各位分享一個真實案例。在2017年,麻省理工學院AI研究小組LabSix展示了第一個成功“欺騙”案例,讓真實世界中的3D對像在任何角度都變成“對抗性”對象。這團隊成功讓系統錯誤辨別一個3D打印的烏龜為步槍!
把圖案印上T恤而避開監控其實也有其難處。研究人員一開始把圖案印上硬卡紙來瞞騙AI系統,因為圖案不會變形,所以效果不錯。但如果印在柔軟物料上,圖案會隨著穿著者移動時變形。如果設計變形或部分外觀不可見,則無法達到預期效果。
由於沒有人會為了隱藏於監控鏡頭中而隨身攜帶一大張硬卡紙,因此研究人員想出了一種方法來解決移動布料在生成對抗網絡的計算問題,讓系統亦能辨認出打印在衣服上時的扭曲圖像。
隨了隱藏人像於監控系統當中,還有其他欺騙系統之應用。數位安全專家及時裝設計師Kate Rose早前在DEF CON 27(DEF CON是每年在拉斯維加斯舉行的一次黑客會議)上展示了她的「對抗時尚」服裝系列。她利用假車牌覆蓋著整件衣服,讓這些垃圾數據被紀錄在車牌讀取系統中。 暫時,利用生成對抗網路這個方法來欺騙系統也有其局限性,對Microsoft Azure、 Amazon Web Services和Google Cloud Platform 等辨識系統並不能使用。隨著科技越趨成熟,究竟辨別系統還是欺騙技術較為優勝?最後結論還有代分曉。
Facebook: https://www.facebook.com/drjackeiwong/
Instagram: https://www.instagram.com/drjackeiwong/
YouTube: https://www.youtube.com/drjackeiwong/