本文為科技部提供之新聞稿,經 INSIDE 編審後刊載。
科技部今(11)日召開記者會,邀請臺灣大學人工智慧技術暨全幅健康照護聯合研究中心(以下簡稱臺大 AI 中心)轄下的徐宏民教授團隊,發表該團隊在科技部的支持下所開發出的可解釋性人工智慧(Explainable AI ,XAI)模組 xCos。
這組 AI 特別之處在於,模組除了具備高辨識率的人臉辨識能力外,還可有條理的解釋 AI 產出結果的原因,不僅可協助國內外相關業者開發 AI 辨識技術、明白 AI 決策建議背後的理由,更能提升人類對於使用 AI 的信任度。
世界頂尖的人臉辨識技術再精進
徐宏民教授表示,團隊過去三年透過產學合作,協助幾家軟硬體公司開發人臉辨識產品。在深度模型設計過程中會遭遇 AI 人臉辨識結果跟我們大腦直覺無法吻合的案例,不曉得判斷的依據為何。為解決這樣的問題,團隊花了一年多的時間開發了可解釋性人工智慧(Explainable AI ,XAI)模組 xCos,可以成功解釋為何兩張人臉會辨識為同一人(或另一人)的原因,提出 AI 黑盒子的決策依據、協助人臉辨識產品開發,同時 xCos 會自動留意人臉不自然的表面而專注在真實以及具辨識能力的人臉位置,進而達到偽裝人臉辨識的效果。且經過測試,就算搭配不同的人臉辨識軟體,亦能發揮同樣的功能。
揭開 AI 的黑盒子,讓 AI 來告訴你「它」的理由
陳良基部長提到,人類總是藉由不斷的提問「為什麼」來釐清問題、尋求突破與找到答案,這也是人類科技能進步的原因。早期的 AI,是基於規則系統(rule-based system)由科學家提供各種判斷依據,讓電腦依流程判斷出結論,例如決策樹等,此方法可以輕易的回頭找出電腦產出成果的原因,具有高度的可解釋性。
近年 AI 已進步到使用深度學習等類神經網路,在快速且大量的消化各式資料後,由電腦自己訂規則,憑著數以千萬計的條件產出更高精準度的答案,但逐漸的,人們開始注意到 AI 無法詳細說明「它」做出決定的推理過程與原因,在得不到滿意的回答之前,將讓人駐足不前,不敢放心地運用 AI 解決問題,甚至質疑其決策行為。
根據資誠聯合會計師事務所 (PricewaterhouseCoopers,PwC) 指出,人工智慧具有 15 兆美元的市值,但當前的關卡就是 AI 缺乏解釋性。現階段的 AI 只看到了輸入的資料及輸出的結果,中間的判斷依據與過程難以捉摸,就如黑盒子般,倘能理解 AI 如何做出判斷,確認決策的合理性,未來才能更進一步改善與強化模型可靠性,因此,可解釋性人工智慧(XAI)成了近年來各國 AI 研究領域的趨勢之一,包括美國國防高等研究計劃署(DARPA)於 2018 年宣布投入 20 億美金推動的 AI 計畫中,AI 的可解釋性就是其中重要的一環。
可解釋性與高相容性,加速相關應用技術開發與產業提升
徐宏民教授說,這套 XAI 模組 xCos 除了可供末端的使用者了解人臉辨識結果的原因外,更可協助開發人員探究及檢視系統的運作機制,該團隊為加速技術擴散與落地應用,所研發之可解釋性 AI 模組 xCos 可與其他人臉辨識系統作相互搭配,團隊亦已將這項技術以 Open Source 方式供國內外產學研單位使用(https://github.com/ntubiolin/xcos),希望將其相關理念拓展至其他深度學習相關應用中,同時也正將 XAI 技術擴展到其他領域關鍵性的人工智慧決策系統。
例如目前的 AI 僅告知發電廠未來 1 小時是否要增加發電量,但 XAI 可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI 可以說出 X 光片是否有肺炎徵兆,但 XAI 可更進一步解釋判斷的依據以及指出病徵的位置,這些 XAI 的應用,都可強化人民對 AI 的信任,更可協助系統開發人員進一步檢視 AI 判斷是否合理,便以改善與強化 AI 模型,進而促進國內外 AI 技術與相關產業進展。
徐宏民教授團隊在科技部的長期支持下,自 2011 年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等,前於 2018 年在全球三大電腦視覺頂尖會議之一的 CVPR 偽裝人臉辨識競賽(Disguised Faces in the Wild)中,以辨識率唯一超過 9 成之姿,技壓群雄奪下全球冠軍。
陳良基表示,科技部自 2017 年宣布人工智慧(AI)科研戰略,引導臺灣成為 AI 發展重鎮,續於 2018 年起補助臺灣四所頂尖大學成立 AI 創新研究中心,包含臺灣大學(核心技術與生技醫療)、清華大學(智慧製造)、交通大學(智慧服務)及成功大學(生技醫療)。
責任編輯:Chris
核稿編輯:Mia