《中共中央關于制定國民經濟和社會發展第十五個五年規劃的建議》明確提出:“加強人工智能治理,完善相關法律法規、政策制度、應用規范、倫理準則。”以大模型和具身智能為代表的人工智能技術,在“十五五”期間承載著科技自立自強和引領發展新質生產力的重要任務。人工智能蘊含著科技突破和社會進步的重大潛力,但也面臨著算法黑箱、人群歧視、侵害公共安全等不當濫用的巨大風險。在構建人類命運共同體的語境中,我國作為人工智能技術的重要策源地和引領者,不僅需要在技術層面推進人工智能的迭代升級,更需要在治理層面構筑智能向善的中國治理方案,確保人工智能技術進一步服務于社會福祉和公共安全。

  以智能向善為指向

  人工智能作為新興、前沿技術,是人類科技文明進步的集中體現。一方面,人工智能具有技術中立性,在技術層面本身不負載任何價值評判,遵循著技術邏輯和工具理性;另一方面,人工智能具有客體性,不能取代人類的主體性,應當成為人類理解世界和改造世界的工具,服務于人類福祉的終極目的。因此,智能向善的核心在于勾勒智能發展應用的人類福祉邊界,保障人工智能的技術進步和應用促進人類福祉的增進,提升人類的尊嚴和自由。

  關于智能向善的具體內涵,習近平總書記深刻指出:“推動我國人工智能朝著有益、安全、公平方向健康有序發展。”具體而言,智能向善可區分為以下兩個層面。

  在方向目標層面,人工智能的發展和應用,應當有益、安全、公平。其中,有益是指人工智能作為工具性技術,必須為推進社會進步和人類文明而發展和應用。安全是指人工智能的風險必須控制在社會可接受和可容忍的范圍之內,必須統籌發展和安全,使人工智能的發展不至于損害社會基礎發展條件。公平是指人工智能的應用必須以同代人的共享和代際公平為前提,推進人工智能技術服務于構建人類命運共同體。不得在技術層面對低收入國家、技術落后國家設置利用門檻。

  在路徑方法層面,人工智能必須遵循健康和有序的路徑與步驟,趨向于最終的社會福祉目標。易言之,人工智能的發展和應用,必須遵循健康和有序的路徑與步驟。所謂健康,是指人工智能技術的規劃、發展、進步,必須在人類監管之下進行,要保障技術進步的程序和條件具有可解釋性和可協商性。所謂有序,是指人工智能技術的發展和應用,應當符合特定的歷史條件、社會條件、制度條件,并參酌特定文化、特定區域的具體情況。

  依法治理是根本方式

  無論是人工智能領域的法律法規和政策制度,還是行業性應用規范和倫理準則,都屬于法治思維和規則思維的范疇,也是“全面推進國家各方面工作法治化”的具體組成部分。人工智能治理,不同于人工智能管理,“治理和管理一字之差,體現的是系統治理、依法治理、源頭治理、綜合施策”。人工智能的技術內核本就具有符號化、規則化、程序化的特點,通過法治手段和法治思維,可以更加充分發揮法治在人工智能治理中固根本、穩預期、利長遠的基礎性作用。

  首先,有助于實現人工智能治理的系統性。人工智能治理,關聯著技術底座、算法創新、數據供給、模型性能、產業應用、終端消費等領域。透過法律的形式化、抽象化、規則化治理形式,可以在人工智能諸環節進行管轄領域、責任領域、風險分配的體系性區分,進而形成貫穿人工智能全鏈條的有機、關聯治理體系,形塑人工智能治理體系的中心結構,避免出現人工智能不同領域之間相互區隔、相互沖突的現象。

  其次,有助于人工智能治理機制的穩定性。人工智能技術的發展與安全,處于一種辯證、動態的關系。技術發展的具體進度和重要突破,需要長期的積累、試錯階段,可能無法準確計劃和預測技術突破的具體時間點和具體實現方式。因此,需要通過法律制度的規范化構建,為技術發展提供一個可持續發展的技術進步空間,為技術奇點的出現設置充裕、長效、穩定的基礎條件和制度預期。

  最后,有助于人工智能治理要素的協調性。人工智能治理既包括多種技術要素,也包括多種規范要素。在技術要素中,不同技術領域和不同技術標準之間可能存在沖突,必須通過法律規則或法律標準的準確設置,才能保障不同技術要素之間處于安全和發展的平衡狀態。在規范要素中,存在著橫向和縱向的不同規范體系,需要在以憲法為中心的國家治理體系中進行權限、位階、責任的分配。具體而言,在橫向規范體系中,存在著促進人工智能技術發展的部門規章或其他行業立法,也存在著監督、規制人工智能技術風險的監督部門立法,還存在著人工智能治理的國際法和區域法,這些多元立法有賴于憲法框架確定不同法律規則之間的權限、效力、沖突解決模式;在縱向規范體系中,需要根據《立法法》及相關法律適用機制,確定人工智能相關國家立法、地方立法之間的不同位階和權限。

  拓寬依法治理的路徑

  首先,以科學立法推進人工智能治理有法可依。人工智能技術的發展處于不斷變化和更新之中,其所處的社會環境和時代條件也變動不居。因此,人工智能治理的法律法規不僅需要及時填補規制空白,還需要根據技術變化和社會變遷及時調整規制事項和規范方式。在立法形式上,針對人工智能領域的技術性、動態性、匿名性等特性,可綜合采用原則、規則、標準并行的綜合立法形式。在原則層面,規定人工智能治理的概括性、抽象性、普遍性原則,如統籌安全與發展原則、以人為本原則、智能向善原則、公平原則等,透過原則的抽象性和實質性,補充具體規則在司法適用中的語義空間,同時保持原則的指導性、穩定性、開放性。在規則層面,注重對前置行為方式、人工智能參與者具體義務的設置,明確相關參與方合法舉止和違法舉止范圍,推進不同參與者行為方式的自由邊界得以明確,保障不同參與者在自由空間內積極推進人工智能技術創新和產業應用。在標準層面,人工智能可解釋性、透明性、風險外溢等問題相關的領域中采用彈性的標準形式,如“合理”“謹慎”等標準,進行語境性的責任劃分,在個案中動態推進人工智能發展和安全的平衡,保障智能向善的語境性實現。

  其次,推進法律實施,助力人工智能治理效能的提升。人工智能治理涉及行政法、民法、刑法等部門法,不僅需要行政機關的嚴格執法,也需要司法機關的公正司法,還需要仲裁、調解等社會機構的糾紛解決路徑。因此,強化執法部門和社會機構準確適用人工智能治理相關法律法規的能力,保障人工智能全鏈條、多領域處于嚴格的法律監管和法律保障之下,才能構建起真正發揮實效的人工智能治理法律體系。

  最后,統籌國內法治與涉外法治,協力人工智能全球治理體系構建。人工智能技術是全人類文明的結晶,關涉全人類的福祉和命運。因此,可以對人工智能國內法治的有效經驗和成功舉措進行提煉和總結,站在構建人類命運共同體的基礎上,以人工智能技術“同球共濟”的胸襟,積極參與人工智能全球治理規則和治理體系的構建,為人工智能全球治理體系的完善和智能向善的實現貢獻中國方案。

  (作者系第十四屆全國人大代表,云南大學社科處處長、法學院教授)