2019-07-01|作者:資誠聯合會計師事務所

資誠AI報告:企業須發展「負責任的人工智慧」 以實現15.7兆美元AI商機

2019世界經濟論壇新領軍者年會(夏季達沃斯論壇)於7月1日至3日在中國大連舉行,資誠PwC今年再度擔任論壇合作夥伴,發布《2019全球企業AI診斷調查報告》(PwC’s Responsible AI Diagnostic survey),調查發現,全球各企業必須採取「負責任的人工智慧」(Responsible AI)做法,並且相互整合,才能實現15.7兆美元的全球AI商機。 

主要發現:
1. 只有25%的受訪者表示,在導入人工智慧解決方案之前,會優先考慮人工智慧的道德影響。
2. 五分之一(20%)的受訪者具備明確的流程來識別與AI相關的風險;超過60%的企業依賴開發商、非正式流程或沒有明確書面記載的程序。
3. 道德的AI框架(Ethical AI frameworks)的確存在,但執行方法卻不一致。
4. 56%的受訪者表示,如果他們組織的人工智慧做錯了,很難找出原因。
5. 超過一半的受訪者沒有將其評估AI偏見的方法形式化(formalise),原因是缺乏知識、工具和即時評估。
6. 對於已經大規模應用AI的企業來說,如果AI出現問題,僅39%受訪者表示,在「某種程度」上(somewhat) 他們確定知道如何停止AI運作。

資誠創新整合公司執行董事盧志浩表示,人工智慧帶來機會,但也帶來許多信任和責任的內在挑戰。如果要成功實現AI的生產力,不管對企業或對員工來說,都需要整合性的規劃AI推廣計畫。高階主管需要重新審視組織現況和未來的人工智慧如何協作,不僅要解決潛在風險,還要確定是否有適當的推廣策略、內部控制和流程。 

盧志浩指出,AI的決定與人類的決定之間,不應該有什麼不同。在各種情況下,都必須要能夠為做的決策做解釋,並且了解相關的風險,成本和影響。這不僅是要發展一套偏差檢測、改正、解釋和建立安全系統的技術解決方案,更需要一個新的領導與管理方式,從第一天開始就考慮科技在「道德和責任面向」對企業營運產生的影響。 

發展負責任的AI  考量五大面向 

根據本報告,企業發展負責任的AI必須考量以下五大面向,並將策略規劃和治理嵌入人工智慧的發展,以因應社會大眾對AI公平性、信任和可靠性的關注: 
1.治理 (Governance) 
「負責任的人工智慧」其基礎是端到端(end-to-end)的企業治理。AI治理應該要使組織能夠回應關於AI應用結果和決策的關鍵問題 

2.道德與法規 (Ethics and Regulation) 
核心目標是協助組織在發展人工智慧的過程中,不僅符合法規,也符合道德標準。 

3.可解釋性及可說明性 (Interpretability & Explainability) 
提供一種方法和程序,讓人工智慧驅動的決策是可解釋的;操作AI的人和受AI影響的人也可容易說明。 

4.健全性與安全性 (Robustness & Security) 
將負面衝擊降至最低,協助組織發展健全且可安全使用的AI系統 

5.偏見與公平 (Bias and Fairness) 
解決偏見和公平性的問題,雖然「沒有一個決策對各方都公平」,但組織可以設計AI系統來減少不必要的偏見,並在特定的定義下達成公平決策 

人工智慧的道德和責任問題,顯然是多數企業領袖關注的議題。根據2019資誠台灣企業領袖調查報告,63%的台灣CEO認為AI在未來5年將大幅改變公司的營運方式,高達81%的台灣CEO認為,AI必須對人類解釋其決策過程,向人類證明其判斷是正確的,以取得人類的信任。 

盧志浩建議,企業必須確保對AI運用符合許多標準。AI必須是合乎道德的,並且在所有方面都符合法規規定,透過一個強大的端到端治理基礎來支撐,並且具備可解釋性及安全性,同時解決偏見和公平性的問題,以建立一個公平、透明、安全與符合法規的AI信任運作機制,如此才能快速釋放AI的商機潛力,達成企業對於實現AI的期望。 


看更多資訊:《2019全球企業AI診斷調查報告》

資料來源:資誠聯合會計師事務所
圖片來源:Franck V. 


延伸閱讀:
AI資源回收機器人 精準分類又省時
【婦女節專題】AI加深性別偏見:自主學習讓歧視不斷被複製

GRI Certified Software & Tools Program