本界奧運及殘奧已完滿落幕,香港運動員取得非常亮麗的成績,令人鼓舞。無論是劍擊、舉重、游泳、跑步等項目,表現或技術都是由速度、力量、靈敏度、耐力等因素組成。要讓運動員表現進一步提升,可利用科技協助整個訓練過程。利用人工智能及物聯網技術,訓練時讓視像鏡頭記錄運動員的肢體動作,加上運動員身上所安裝的各種感應器,便可得悉各種數據,從而分析每位運動員的表現。
視像鏡頭可說是其中一個重點,因為鏡頭下能捕捉每位運動員在訓練時的姿態改變,包括角度、速度、甚至隨著訓練時間過去之姿態變化等,這分析可稱為「人體姿態預測(Human Post Estimation)」。
人體姿態預測之目的為在圖片或短片中找出人體及相對應之人體關節(例如手腕及膝蓋等)並標上記號,再把這些記號連上並組成一個完整的人體線條。人體關節因為細小容易被衣服遮擋,並不容易被定位。但隨著科技進步,現時各種演算法都能輕易作出辨別,而且準確度都非常高。
大部分人體姿態預測均採用卷積神經網絡(Convolutional Neural Network,CNN)這種深度學習演算法。它可從圖片中透過計算每一小部分的資訊及與其他部分之關聯性作深度資訊提取,把發現輸出為不同尺度的Feature Map(特徵圖),然後再進行下一階段之演算法學習。
在姿態預測過程中,有以下兩種常用方法:
一:由上而下
先檢測圖片中每個人的位置,然後對所檢測到的每個人單獨預測身體上的關節位置。運算時間取決於圖片中的人數,人物越多,運算時間越長。其中一款採用由上而下之方法為AlphaPose。由上海交通大學團隊開發,它既可在圖片或短片中進行姿態預測,亦能在畫面中對動作進行追蹤,而且可把結果輸出為PNG、JPG、JSON及AVI等格式。
二:由下而上
由圖片中直接預測所有關節位置,再用關聯度預測每個關節點屬於圖片中的那個人。運算較簡單,時間相對較短。採用由下而上方法的例子為OpenPose。由卡內基梅隆大學(Carnegie Mellon University)團隊開發,與Microsoft的體感遊戲機Kinect相比,Kinect在我們玩遊戲時能追蹤20個關鍵點,而OpenPose則細緻得多。針對同一個動作,Kinect可感知到玩家正在舉起一隻手,而OpenPose則可認知這個人的手指在指向某個方向。
無論是用那個方法,所得出的結果都是一系列的關節座標位置(亦包括可視化圖像),分析人員利用這些數據計算出肢體移動速度及關節角度等。除了直向地分析同一位運動員在訓練過程中之變化外,亦可橫向地把該名運動員的數據跟其他運動員作比較,從中分析各個強弱點。
假若在鏡頭下真係的準確捕捉街上每個人的肢體動作,從而進行分析,真的想像不了有多恐怖。可能你已經在電影中看到相關情節,這種監控主要用來捕捉逃犯。日本在2019年,日本電信公司NTT East和科技公司Earth Eye合作開發一款名為AI Guardsman的人工智能系統,用來提防及監測商店中是否有小偷。據他們聲稱,該系統令店內盜竊行為減少了約四成。是因為成功捕捉小偷還是設置了這套系統造成阻嚇力,繼而把犯案率降低,真係不得而知。
利用科技協助運動員訓練提升表現,或在醫學上應用來監控病人身體康復狀況,這絕對是一件正面的事。數據收集及應用課題相信在未來十年繼續會有廣泛討論。
Facebook: https://www.facebook.com/drjackeiwong/
Instagram: https://www.instagram.com/drjackeiwong/
YouTube: https://www.youtube.com/drjackeiwong/