8月16日,中國信息通信研究院主辦的“2022可信AI峰會”在京舉行。會上公布了“2022年可信人工智能實踐案例”評選結果,螞蟻集團共有三項可信AI實踐方案入選標桿案例。
螞蟻集團入選的三項標桿案例,分別是基于可信AI技術支撐的“螞蟻可解釋機器學習平臺FinINTP”、“螞蟻可解釋AI的安全風控實踐”及“螞蟻AI安全檢測平臺”。
圖:螞蟻集團三案例入選中國信通院“2022可信人工智能實踐案例”標桿案例
近年來,安全和可信性已成為制約下一階段人工智能技術發展的瓶頸所在。早在2017年,國務院《新一代人工智能發展規劃》中,就重點提及人工智能的安全可信性。今年5月起,中國信通院面向全社會征集2022年可信人工智能實踐案例,最終選出35項優秀案例、13項標桿案例,為行業開展可信AI應用工作提供了示范指引。
當下,AI越來越多參與到重要決策中,它的思考不能是“黑盒”。螞蟻集團自主研發的“螞蟻可解釋機器學習平臺FinINTP”,結合規則學習、機器學習等技術,不僅實現了智能風控等多種場景的可解釋模型和規則建設,還開發了多種基于擾動的可解釋器和基于梯度的事后解釋器,可實現對批量異常風險要素的提前感知。
螞蟻集團基于可解釋AI的安全風控實踐,沉淀了一套可解釋AI系統。該系統采用基于特征、基于模型到基于邏輯的分布式可解釋框架,將百萬量級預測樣本的可解釋計算速度提高100倍以上;同時通過人工經驗和機器學習交互結合的方法,確保AI決策結果的天然可解釋。目前,這套系統已在螞蟻智能風控、投訴審理,反洗錢等場景應用。
如何提高AI的魯棒性,即抗攻擊對抗能力及穩定性,以應對復雜多變的數據環境,也是可信人工智能的重要議題。此次入選標桿案例的“螞蟻AI安全檢測平臺”,是業內首個面向工業場景全數據類型的AI安全檢測平臺。該平臺可自動化評估不同數據和攻擊類型的AI安全風險,并提供安全性增強方案,將于9月免費對外開放魯棒性測評,并將持續增加可解釋性、算法公平性、隱私保護的檢測能力。
清華大學副教授李琦表示,人工智能可信問題廣受學術界和工業界關注,AI可解釋性是實現可信AI的關鍵技術,但目前行業探索較多停留在理論層面,缺少通用的可解釋框架。螞蟻集團在可信AI技術領域上的創新應用,為可信人工智能技術的發展提供了更加廣闊的思路。
公開資料顯示,螞蟻集團自2015年起投入可信AI技術研究,2016年全面啟動人工智能風控防御戰略,目前已在反欺詐、反洗錢、反盜用、企業聯合風控、數據隱私保護在內的多個場景落地,形成了新一代智能風控體系“IMAGE”,支撐全風險域的防控。
【免責聲明】本文僅代表第三方觀點,不代表和訊網立場。投資者據此操作,風險請自擔。
最新評論