來源:騰訊研究院 時間:2022-02-07 15:44:09 作者:
隨著各界對AI倫理的日益重視,AI系統(tǒng)的可解釋性也逐漸成為熱點,甚至上升到立法和監(jiān)管的要求。許多人工智能領域的專家都把2021年視為“AI可解釋元年”,在這一年,不僅政府出臺相應的監(jiān)管要求,國內(nèi)外許多科技公司,譬如谷歌、微軟、IBM、美團、微博、騰訊等,也都推出了相應的舉措。
近日,騰訊研究院、騰訊天衍實驗室、騰訊優(yōu)圖實驗室、騰訊AILab等組成的跨學科研究團隊,歷時近一年,完成業(yè)內(nèi)首份《可解釋AI發(fā)展報告2022——打開算法黑箱的理念與實踐》,全面梳理可解釋AI的概念、監(jiān)管政策、發(fā)展趨勢、行業(yè)實踐,并提出未來發(fā)展建議。
2021年11月,聯(lián)合國UNESCO通過首個全球性的AI倫理協(xié)議《人工智能倫理建議書》(Recommendation on the ethics of artificial intelligence),提出的十大AI原則包括“透明性與可解釋性”,即算法的工作方式和算法訓練數(shù)據(jù)應具有透明度和可理解性。
就當前而言,機器學習模型尤其是深度學習模型往往是不透明的,難以為人類所理解的。未來,人工智能的持續(xù)進步有望帶來自主感知、學習、決策、行動的自主系統(tǒng)。然而,這些系統(tǒng)的實際效用受限于機器是否能夠充分地向人類用戶解釋其思想和行動。如果用戶想要理解、信任、有效管理新一代的人工智能伙伴,人工智能系統(tǒng)的透明性與可解釋性就是至關重要的。因此,近年來,可解釋AI(Explainable Artificial Intellifence,簡稱“XAI”)成為了AI研究的新興領域,學術界與產(chǎn)業(yè)界等紛紛探索理解AI系統(tǒng)行為的方法和工具。
可解釋AI的意義:第一,幫助用戶增強對AI系統(tǒng)的信息與信任。第二,防止偏見,促進算法公平。第三,滿足監(jiān)管標準或政策要求。第四,理解和驗證AI系統(tǒng)的輸出,推動系統(tǒng)設計的改進。第五,幫助評估風險、魯棒性和脆弱性。
可解釋AI的發(fā)展趨勢:第一,AI的透明性和可解釋性逐漸成為立法和監(jiān)管關注的焦點。第二,對政府公共部門使用的AI系統(tǒng)提出較高的透明度與可解釋性要求。第三,對商業(yè)領域的AI系統(tǒng)在可解釋方面避免作“一刀切”要求。第四,行業(yè)積極探索可解釋AI的技術解決方案。
報告指出,透明性與可解釋性,連同公平性評價、安全考慮、人類AI協(xié)作、責任框架,都是AI領域的基本問題。對AI應用系統(tǒng)的透明性與可解釋性要求,需要考慮受眾需求、應用場景、技術與經(jīng)濟可行性、時空等因素,同時與效率、安全、隱私、網(wǎng)絡安全、知識產(chǎn)權等目的做好平衡,界定不同場景的最小可接受標準,必要時采取常規(guī)監(jiān)測、人類審查等剎車機制,而非一味要求算法解釋或算法公開。
具體內(nèi)容如下
責任編輯:藺弦弦