上海大學法學院袁曾在《法學雜志》2023年第4期上發(fā)表題為《生成式人工智能責任規(guī)制的法律問題研究》的文章中指出:
生成式人工智能的發(fā)展需要法律予以及時規(guī)制,以實現(xiàn)技術的發(fā)展可受控制?,F(xiàn)行人工智能的責任承擔規(guī)制以算法“可解釋”為核心要求,通過算法透明性、隱私保護以及分類分級監(jiān)管等配套機制構筑了相應治理范式。但在生成式人工智能規(guī)?;瘧靡院?,傳統(tǒng)以算法“可解釋”為規(guī)制核心的責任承擔機制已無法應對新生產力工具帶來的顛覆性變化。生成式人工智能以大型語言模型為基礎,通過深度學習自互聯(lián)網誕生以來全域范圍內的海量數(shù)據(jù),演繹歸納形成符合邏輯的輸出內容,其利用數(shù)據(jù)之廣泛、生產內容之準確、算法迭代之迅猛、可利用范圍之寬廣,已非傳統(tǒng)人工智能可以匹敵。
正視技術迭代發(fā)展的現(xiàn)實,對生成式人工智能的治理需要由以“可解釋”為核心逐步轉向以“可控制”為核心的責任治理架構。生成式人工智能“可控制”需要在給定目標的基礎上,就技術發(fā)展的邏輯,設定治理目標與范式,從基礎規(guī)則出發(fā)即介入控制,從起點至結果全流程介入干預人工智能的治理。生成式人工智能“可控制”是一項系統(tǒng)性工程,其機理是將技術發(fā)展的核心價值、底層邏輯、路徑規(guī)制、關鍵救濟等全過程始終掌握在人類手中?!翱煽刂啤钡囊蟛⒎穷嵏苍小翱山忉尅钡囊笈c有價值經驗,而是在“可解釋”的基礎上縱深發(fā)展人工智能可控的治理鏈條,延展控制的范圍、內涵與方法。其核心是調整人工智能治理的責任規(guī)制重心,擴大“可控制”的責任調整范圍。以算法“可解釋”為核心的責任規(guī)制架構,可以涵蓋的調整范圍僅僅是生成式人工智能治理中的部分領域,需要按照“可控制”的基礎目標與終極價值,系統(tǒng)性重構責任規(guī)制范圍,以技術的有效利用為主線,全部納入控制的范圍統(tǒng)一調整。
生成式人工智能事實上已在眾多領域替代了人類工作,在促進生產力水平提高的同時,也帶來了權益侵害、隱蔽犯罪、認知混亂等客觀風險。正視實際,發(fā)展可信向善的人工智能,需要按照生產力發(fā)展的規(guī)律適時調整生產關系,其關鍵在于根據(jù)“可控制”的責任規(guī)制總體要求,給予生成式人工智能各參與方以恰當?shù)呢熑螜C制與歸責路徑,及時監(jiān)督與修正預期外的重大風險,在技術進步與治理安全的綜合目標下形成準確的價值預期,在有效規(guī)避系統(tǒng)性風險的基礎上保護創(chuàng)新,促進技術的整體可控發(fā)展。
編輯:武卓立