易觀數字化:今年以來,政府層面、金融監管層面在科技倫理治理的指導要求上持續加碼,《中共中央辦公廳 國務院辦公廳印發關于加強科技倫理治理的意見》中,點明人工智能作為重點領域應完善科技倫理治理的規范和標準;《中國銀保監會辦公廳關于銀行業保險業數字化轉型的指導意見》中指出,要防范模型和算法風險,定期評估模型預測能力及在不同場景下的局限性,確保模型的可解釋性和可審計性,防止算法歧視。人工智能治理的形勢日益迫切,在這當中,人工智能是否可信被視為一種重要的品質,需要引起金融機構的足夠重視。本文將從可信AI對于銀行的重要性、關鍵特征、評估與驗證方式、合作廠商選擇等維度進行專題分析。
可信AI在銀行數字化轉型背景下的重要性日益凸顯
銀行業在數字化轉型建設過程中,人工智能技術是構建數智化能力的關鍵領域,在技術創新與應用的同時,銀行也面臨著來自人工智能的風險挑戰。
易觀分析認為,人工智能的倫理風險、模型與算法風險、數據風險、隱私風險是當前銀行需要應對的幾類主要AI風險,人工智能黑盒性、不確定性、脆弱易攻擊性造成的隱憂和不信任感,使銀行在應用層面難以對其委以重任,在研發層面也難以進行有突破性的探索。因此AI是否可信、可控在當前以數字化能力為依托的轉型背景下變得尤為關鍵,實現可信AI是銀行科技能力建設布局的重要內容,是銀行實現業務穩健發展的前提和有力保障。
可信AI的特征應結合銀行實際應用需求加以延展
可信AI的概念在國內是由何積豐院士于2017年香山科學會議上首次提出,是指人工智能技術本身具備可信的品質。目前學術界針對人工智能治理已經發表了多篇研究論述,對其治理原則的普遍認識聚焦在透明、安全、公平、可問責、隱私保護幾項特性中。結合銀行業AI應用發展現狀,易觀分析認為,可信AI應當具備八大關鍵特征,即穩定性、魯棒性、可解釋性、安全性、公平性、普惠性、客戶自治性以及可追溯性。
相應地,銀行對于AI是否具備可信品質的考量應圍繞自主可控戰略要求,結合銀行實際應用需求,如識別欺詐、隱私泄露、系統攻擊、信貸風險、洗錢風險等風險場景,對可信AI的關鍵特征加以延展。例如,AI在進行智能決策分析、智能推薦、智能風控等活動時應做到透明可釋、記錄可溯,具備可解釋性、客戶自治性、可追溯性;在進行智能識別、智能問答等活動時應做到抗擾動、抗欺騙,且符合倫理道德與行業規范,具備魯棒性、公平性、普惠性。同時,人工智能應具備抗風險、抗攻擊和隱私保護的穩定性、安全性特征。
可信AI的評估與驗證應基于場景視角小規模進行再規模化啟動
可信AI本身作為技術能力的一種表現,是反映在算法和模型層面,而不是直接體現在業務流程或是客戶體驗中的。
易觀分析認為,銀行在推進人工智能相關項目時,應有的放矢地進行可信AI的評測。在銀行業對可信AI尚無統一評測標準的情況下,銀行應基于場景視角,選擇有需求、有痛點、頻次高、風險敏感等場景,以自主技術能力開展可信AI相關的評估與驗證,并將其作為銀行IT治理架構下的關鍵任務進行統籌考慮。評估與驗證應以小規模驗證為主,通過風險點和樣本設置,重點驗證可信AI一個或多個特征在單一場景下的表現,經小規模驗證后再規模化啟動。
對廠商的選擇應關注其人工智能的整體能力表現
從目前人工智能領域的市場來看,可信AI相關的參與者和產品提供者以大型互聯網公司、獨立創業公司、滲透行業的供應商、產業背景公司為主,這些廠商具備了不同程度的可信AI研發能力,但并不存在單一提供可信AI產品的廠商。
易觀分析認為,銀行應從整體能力出發對廠商進行選型評價,并且將可信能力需要作為AI產品及解決方案的重要評價標準之一,結合自身場景需求選擇合適的合作伙伴。