UMagazine_24

COVER STORY • 封面專題 2021 UMAGAZINE 24 • 澳大新語 8 況都來一個訓練卷積神經網絡(或其他機器學習模型), 但實踐中卻難以有足夠的數據和時間來訓練這些網 絡,也無法預見汽車所有可能遇到的情況。 應對這個問題的方法之一就是運用「遷移學習」人工智 能方法,原理有點像訓練一個單車手學習駕駛電單車。 單車手憑著他們的經驗,可能駕駛電單車時會比其他 人更易保持平衡,毋須像其他人一樣從頭學起。同樣, 如果沒有足夠的數據或時間,我們可以用已經訓練好 的機器學習模型為基礎,為類似任務訓練出新的模型。 為了提升遷移學習的成效,澳大與百度的研究 人員提出了一種新算法,名為Re‑Initializing the Fully‑connected LayEr(簡稱RIFLE),用於訓練基於 遷移學習方法的卷積神經網絡時的「反向傳播」過程。 他們先用這個新算法訓練一個卷積神經網絡,然後以 它來分類、檢測和分割數以萬計的圖像,發現其表現 遠勝一些經主流算法訓練的對手。相關論文已在頂尖 的國際機器學習年會上發表。 加快訓練機器學習模型 重新訓練一個卷積神經網絡前,我們可以先刪除一些 與新任務無關的部分,這個過程稱為「剪枝」。「剪枝」 有助降低卷積神經網絡的複雜程度、從而加快運算, 但有時也會削弱其執行任務的能力。 針對這個問題,澳大、中科院深圳先進技術研究院和 百度的研究人員開發了一種新的「剪枝」方法,名為 Attentive Feature Distillation and Selection(簡稱 AFDS)。他們用AFDS和多種主流算法修剪一個有101 個卷積層的卷積神經網絡,再用這些網絡來分析六個 圖片數據庫,辨識圖片上有甚麼物件。他們發現,在運 算量下降30%的情況下,用AFDS修剪的網絡達到幾 乎同樣準確的辨識結果;即使運算量下降90%,準確 度仍能夠保持在約70%,遠高於用其他方法修剪的網 絡。相關論文已在頂尖的國際學習表徵年會上發表。 自動車通常會用卷積神經網絡來分析周邊的物體,它 們一旦受到網絡攻擊或遇到不太清晰的物件(例如有 塗鴉的路標)時很易判斷錯誤,例如將停車標誌誤判 為讓先標誌,隨時釀成慘劇。因此,研究人員開發了 LAFEAT算法,令卷積神經網絡面對攻擊或噪聲時更 具魯棒性(robustness,又譯穩健性)。這款新算法在 實驗中的表現遠勝10多種現有的算法。 在2021年中,澳大和百度的研究人員將LAFEAT算法 澳大自動駕駛研究團隊 The UM research team behind the self‑driving project

RkJQdWJsaXNoZXIy MTQ1NDU2Ng==