近日,中國人民銀行制定發布了《人工智能算法金融應用評價規范》(以下簡稱《規范》),針對當前人工智能技術應用存在的算法黑箱、算法同質化、模型缺陷等潛在風險問題,建立了人工智能金融應用算法評價框架,從安全性、可解釋性、精準性和性能等方面系統化地提出基本要求、評價方法和判定準則,為金融機構加強智能算法應用風險管理提供指引。
近年來,人工智能技術、機器學習算法模型在金融銀行業的應用愈加普遍與深入,促進行業智能化發展的同時,算法黑箱問題、安全問題、偏見問題等也隨之暴露,并成為影響金融行業健康發展的的潛在風險,尋求解決之道刻不容緩。
除了監管層面的高度重視與推動,企業層面也應積極行動,貢獻智慧力量。據了解,一些金融機構及金融科技企業在該領域已展開研究與探索。比如國內金融行業大數據與人工智能解決方案提供商索信達控股(股票代碼:03680.HK),早在2019年便面向國內金融行業率先推出應對復雜算法黑箱問題的“可解釋機器學習創新算法和產品”,并已在金融領域成功落地應用。
索信達資深數據科學家、AI創新中心總監邵平表示,金融業風險防控是一個永恒的主題,人工智能技術存在的潛在風險如果不能及時識別、控制,人工智能技術就是一把“達摩克利斯之劍”。
所謂黑箱算法,即諸如深度神經網絡算法或集成學習算法等,這類模型內部結構復雜,其運作機制就像一個黑箱,無法用人類可以理解的語言解釋模型輸入特征與模型結果的影響關系,這樣的結果在準確性、安全性、公平性等方面都存在很大不可靠性。尤其是在自動駕駛、金融風控、醫療等高風險領域,以及對安全和公平性有較高要求的業務場景,都不適合使用黑盒模型。人們不僅希望模型給出正確的預測結果,還希望模型能給出判斷的原因,所謂知其然更要知其所以然,在不清楚黑盒模型運作原理的情況下,大家是不敢輕易僅憑模型的結果就做出決策的。
邵平認為,《規范》的出臺非常及時和關鍵,為人工智能技術在金融行業的規范應用增加了一道有力保障,推動人工智能技術在金融行業更廣泛應用和更加健康、安全發展。另外這次規范的標準非常專業化和技術化,清楚的列出了人工智能技術應用的基礎條件和使用人工智能技術的應用標準,規避人工智能技術的不適當使用可能給行業帶來的風險,也為金融機構和金融科技公司指明了清晰的技術創新方向和目標。
同時她還提到,本次出臺的規范有一個重大的亮點,即新增了人工智能技術安全性和可解釋性的評價規范,并且擺在了很重要的位置。首先安全性是第一考慮的要素,是決定算法是否可用的基礎;第二位是可解釋性,是決定模型是否適用的重要依據。這兩個前提條件為人工智能技術的應用起到了保駕護航的作用,規避了人工智能技術的濫用和不安全使用,糾正了之前模型好壞只用精度來衡量的偏頗,也有效防范了人工智能技術應用過程中很多可能存在的風險。
可見,業界對模型的應用要求已經不僅僅停留在準確性層面,模型結果是否可解釋,模型是否安全、公正、透明是機器學習面臨的新挑戰。算法可解釋性是判斷算法是否適用的重要依據,可解釋性越高,算法內在邏輯、技術實現路徑、決策過程、預期目標越明晰,算法更易于被理解、匹配、應用和管理。
據邵平介紹,索信達在可解釋機器學習領域探索較早,具有成熟的研發能力與經驗。早在2018年,索信達就與香港大學成立聯合實驗室,開展可解釋機器學習的深入研究。經過多年深耕,索信達已具有自主知識產權的系列可解釋機器學習算法及產品,并積累了豐富的金融業務場景實踐案例。索信達的可解釋機器學習算法及產品已在金融風控信用評級、用戶流失預警、產品營銷推薦等多個場景應用。
比如在某股份制銀行流失預警場景進行的流失歸因,通過實施索信達的可解釋機器學習技術方案,大大的提升了模型對實際業務的支撐作用,實現了客戶層級具體流失原因的輸出,用于銀行制定更精準的挽留措施,降低客戶流失率,最終為用戶帶來巨大的經濟價值。
再比如,在某銀行風控流程的對公信用評級場景,客戶在銀行的信用評級出現了降級,客戶需要銀行給出降級的具體原因解釋。由于該行使用的是黑盒模型,模型結果很難解釋,影響了客戶體驗。通過采用索信達可解釋機器學習技術,不僅可以在總體層面上解釋特征如何影響目標變量,還可以在單個樣本層面上解釋用戶信用評分的由來,大大提升了用戶體驗。
邵平認為,金融機構和金融科技服務廠商需要在規范的前提下研發、創新適合金融業務場景使用的安全、可解釋的人工智能算法,這對金融科技公司的人工智能技術服務能力提出了更高的要求,但同時也是推動科技公司進行技術創新變革的動力。
索信達不僅成為推動人工智能算法金融應用規范管理的先行者,還推出了“模型工廠”、“模型管理平臺” 等全棧解決方案。未來,索信達在持續進行可解釋機器學習研發和實踐的同時,將與業界一起推動人工智能技術在金融領域的規范健康發展,助力金融科技應用風險防范,讓金融數字化轉型的腳步更加和諧美好。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。