政府工作報告強調,制定支持數字經濟高質量發展政策,積極推進數字產業化、產業數字化,促進數字技術和實體經濟深度融合。其中,“人工智能+”行動提出了以生成式人工智能為代表的人工智能技術即將加速落地各行各業,催生垂直行業的新質生產力。
生成式人工智能技術,依靠大數據、大模型、強算力的“化學反應”,通過對自然語言和音視頻的數字化處理,在數據的相互作用中訓練出具有推理、創作、決策等復雜能力的智能體,是發展新質生產力的重要引擎。作為新興數字技術,人工智能體現出了更高的自主性與擬真性,同時也帶來了運行過程的不透明性與數據收集的規模性,成為垂直行業數字化、人工智能化的風險隱患。進一步推動人工智能技術的行業落地應用,尤其是醫療、金融、政府治理、自動駕駛等高風險行業領域,應當著重突破數據隱私保護、模型可解釋性兩大瓶頸,借負責任的人工智能來賦能更廣泛的垂直行業。
“人工智能+”行動的落地依靠于實體經濟、傳統產業的人工智能化,以期實現行業顛覆式創新,鍛造行業發展新動能。目前的大語言模型人工智能技術在訓練、部署、應用的過程中,將不可避免地接觸到涉及公民個人隱私、企業核心信息的數據。聚焦到具體使用場景,個人與企業在提問端、回答端、訓練端、存儲端全鏈條均存在隱私泄露隱患。例如,用戶在不知情的情況下向大模型誤傳個人或非公開信息,聊天記錄裹挾敏感數據被儲存并面臨網絡攻擊風險,若大模型將其用于進一步訓練,敏感數據還有可能受到大模型“幻覺”的影響,出現在其他用戶的對話回答中。而對于金融、政府治理等低容錯率、高信任要求的行業來說,恰恰要求對全部環節的風險做到“零容忍”。
解決人工智能技術隱私風險問題,大模型的通用屬性有時候反而會產生一些問題,未來產業發展應當著重發力人工智能大模型私有化部署,提供更高的數據安全性與隱私保護,獲得更加定制化人工智能應用的同時,也能夠避免非公開數據外流。技術發展方面,構建形成數據存儲安全、數據使用合規、數據流向透明的負責任的人工智能技術,加快政策法規落地實施。數據進入模型訓練前,嚴格執行數據加密協議并做好密鑰管理策略,利用匿名化處理技術完成數據脫敏,重點把關數據訪問控制。針對重點行業模型落地,優先考慮本地私有化部署方案,以滿足企業數據治理與監管責任落實的要求。一旦高敏感數據混入大語言模型,大模型應當有能力“刪除”或“遺忘”特定數據特征,未來人工智能技術研發亟需落實數據“刪除”義務,把握對惡劣突發事件及時處置、消除影響的能力。
人工智能技術落地垂直行業的另一大挑戰是可解釋性問題。隨著模型參數和深度的爆炸式增長,模型的決策過程成為難以解釋的“算法黑箱”??山忉屝允谴蛟炜煽?、可信、公平、安全、負責任的人工智能技術的基礎支撐,也是人工智能技術進入更廣泛行業的先決條件。一方面,人工智能技術的落地需要更好的審計路徑和問責機制,自動駕駛汽車的故障為何產生,醫療診斷決策的步驟是什么,回答好這些問題才能破除公眾和企業對人工智能產品的懷疑和不信任。另一方面,人工智能大模型已經涌現出許多前所未有的能力,包括思維推理、上下文學習、指令遵循等,打開能力背后成因和機制的“黑箱”,也是推動人工智能技術向高水平躍升的重要路徑。
形成可解釋性人工智能,應當從人工智能的全生命周期入手,突破模型設計、垂直應用部署、模型效果評估階段的關鍵問題。模型設計上,針對簡單模型,采用決策樹等自身較為透明清晰的架構,針對復雜的深度學習模型,嘗試用代理模型提供模型解釋,進一步幫助用戶理解輸入的特征是如何影響模型決策的;垂直應用部署時,利用可解釋性增強工具提高模型透明度,并提供決策過程的詳細記錄和解釋。使用相關方法計算每個特征對結果的貢獻度;模型效果評估時,亟需建立超越定性評估的量化解釋方法,統籌考慮模型性能、覆蓋率、忠實度等指標,最大化降低模型落地后的監管審計風險。
(作者程絮森,系中國人民大學信息學院教授、中國人民大學國家發展與戰略研究院研究員)
原文鏈接:[中國社會科學網]程絮森:用負責任的人工智能來催生新質生產力