人妻精品久久久久中文字幕2018,久久免费少妇av高潮毛片,国产美女自卫慰视频福利下载,亚洲国产欧美日韩在线等,亚洲天堂在线观看视频,国产特黄精品免费大片,亚洲国产货青视觉盛宴

法治號 手機版| 站內(nèi)搜索

網(wǎng)上有害信息舉報

人工智能主體間性與刑事責任分配

2025-08-29 16:44:52 來源:法治日報-法治網(wǎng) -標準+

□ 孫萬懷

目前,人工智能刑事責任的探討是在人工智能的主體性問題尚未充分論證的前提下展開的。僅僅因為其智能展現(xiàn)了自發(fā)性乃至自覺性,理論就開始嘗試完成穿越和貫通,直接討論主體性歸責可能或標準。實際上,最為關鍵的仍然是主體是否可以轉(zhuǎn)換、人工智能是否具有自由意志以及自由意志的基礎意義。只有解決了這些問題,歸責才成為可能。

人工智能責任主體性的哲學辯證前提

(一)主奴辯證法何以實現(xiàn)

黑格爾提出的主奴辯證法理論,成為主體間性的理論支撐。主體雖然在形式上強調(diào)主體性,但實質(zhì)上不再具有主體地位,成為被絕對理念所操縱的偽主體,由此形成了主奴地位的辯證關系。于是,筆者言及的第一種類型的三重關系悄然出現(xiàn),即主人、奴隸與作為欲望對象的物。主人有欲望,但必須通過奴隸對物的“加工改造”才能滿足。而奴隸則因感覺到對物的支配而實現(xiàn)了所謂的自由,從而“自由”地接受了對關系地位的認可。據(jù)此似乎可以論證人工智能的獨立性。但是,拉康則提出了鏡像階段論:通過客體的反饋,主體才能感覺到主體自身的存在。在一個特定的奴役關系中,他者的存在正是為了反射性地反指主體的建構。鏡像理論給予的啟發(fā)在于人工智能只不過是一個作為鏡像的工具。工具的迭代不過是一種現(xiàn)象,并不能表達為脫逸主體而獨立。當然,對于客體的獨立性也存在另外一種方式的解讀,即靈肉辯證法?!耙驗橹髋p方在其非對稱性承認中不具有彼此過渡到對方之中的辯證關系,取而代之的是主奴雙方各自在其自身的‘自由’(靈魂)和‘生命’(肉身)訴求之間的悖反機制。發(fā)生于主奴關系中的雙重‘靈肉辯證法’,因為一方面未導致主奴雙方地位的反轉(zhuǎn),另一方面未導致主奴關系的解體,所以只是一種‘弱悖反’?!边@一思考同樣存在于人與人工智能的交互關系中。

(二)人工智能是一種強悖反還是弱悖反

在討論人工智能具有或?qū)⒕哂凶杂梢庵緯r,人們不自覺中已經(jīng)完成了對人工智能從工具到理性的轉(zhuǎn)變。這與主奴辯證法并無二致。在主奴辯證法的爭議中,奴隸是否能夠成為真正的主人?對應到人工智能的法律地位,作為主體的人類同樣也面臨著如何理解作為“奴隸”的人工智能的覺醒。筆者認為,基于創(chuàng)造與被創(chuàng)造的關系,其實質(zhì)上還是一種弱悖反,需要說明的有以下幾點:第一,悖反客觀存在。傳統(tǒng)的主客體關系似乎發(fā)生了互換,最直接地表現(xiàn)為完成了機器的替代性和人的依賴性。而這以前恰恰被認定為作為主體的個體的獨特能力,這種獨特能力是自由的基礎。弱悖反的存在帶來了主體功能的弱化,帶來了自主性的弱化,導致自我意識的弱化。第二,人的主體性并不會被摧毀。隨著自我意識的弱化,從形式上看這是一種自由的替代,但是并沒有改變“肉體”的依附性關系。這僅是主體自由實現(xiàn)的另外一種方式,這種方式在人工智能這一非本質(zhì)的單純認識中得到貫徹,并不存在兩個并行的主體。也就是說,從主體間性的角度來看,主人的自我意識的消解并非單向的,其也在不斷強化自身的獨立能力,甚至通過改變相互之間的關系和表達形式來實現(xiàn)。第三,對客體異化的防范。在生成式人工智能出現(xiàn)之后,人們對于風險的警惕性有了極大提高。如果說以前的風險主要是產(chǎn)品責任的歸責,則新的風險主要來源于客體異化。

錯誤的邂逅——刑事責任與自由意志的關系

一般認為責任主義的合理性是建立在自由意志理論之上的。由此,在討論涉人工智能刑事責任基礎前,首先面臨的就是人工智能的自由意志問題。

(一)自由意志之于刑事責任的虛妄

如果說自由意志只是表達了一個選擇的權利,則選擇的依據(jù)是什么才最需要考察。如同一個人到咖啡館,在選擇拿鐵、卡布奇諾抑或伯爵紅茶之間存在一種意志自由,但這只是解決因果鏈條中的一個關聯(lián)依據(jù),選擇的前提都并非自由。因而在實際生活中的責任追究,訴諸的并非意志而是因果鏈。

(二)人工智能不具備與人類等同評價的自由意志——道德責任基礎

斯特勞森提出了反應性態(tài)度與客觀性態(tài)度的界分。反應性態(tài)度是指人對他人對待自己的態(tài)度和行為所作出的一種自然反應,被人們認為其具備了自由意志。客觀性態(tài)度類似于談判和裁決時對規(guī)則執(zhí)著的遵循,可能被認為其因為服從而沒有自由意志。但是這種分類并非涇渭分明,“我們完全可以在道德中立乃至出于善意的情況下對人采取客觀態(tài)度”。這就是斯特勞森的相容論觀點。據(jù)此,人工智能的反應只能是一種客觀性態(tài)度。在解決相容論矛盾的時候,沙普爾斯基提出了道德責任的被決定性,進而提出目前的道德仍然是一個半成品,當個人所遵循的道德責任只是“半成品”的時候,要求人工智能承擔道義責任顯然無法成功。

弱悖反情形下刑事責任的分配

(一)人工智能的自發(fā)、自覺與主體刑事責任消解的必然

在涉嫌犯罪的情形下,誰應該承擔刑事責任,是平臺方還是用戶,抑或人工智能。障礙在于系統(tǒng)自主學習的情形下,平臺的義務標準和廣度開始模糊不清。系統(tǒng)學習的“自主性”“自發(fā)性”的本質(zhì)是主體間性的出現(xiàn),于是筆者言及的第二對三角關系產(chǎn)生了(物自體的獨立性):第一,質(zhì)的責任要素,即“開發(fā)者(主體)—系統(tǒng)(主體)”的關系;第二,刑的責任要素,即“用戶(主體)—系統(tǒng)(客體)”的關系;第三,量的責任要素,即“開發(fā)者(主體)—用戶(客體)”的關系。由于人工智能的“自發(fā)性”,導致第一類與第三類的主客體關系不再那么清晰,開發(fā)者針對系統(tǒng)的違法性特征不再直接,開發(fā)者與用戶的違法性關系也不明顯,這時用戶與系統(tǒng)的違法性關系成為核心的要素。其結(jié)果就是,作為相對方,對于系統(tǒng)導致的刑事危害,當用戶對系統(tǒng)的作用大的時候,平臺的作用力自然減弱,責任豁免或阻卻也就成為可能。

(二)刑事責任分解的價值平衡依據(jù)

所有的跨越式發(fā)展都可能導致政策與實定法、現(xiàn)實理念與傳統(tǒng)觀念之間的緊張關系,進而可能導致恩吉施所歸納的法律的規(guī)范矛盾、價值矛盾以及原則矛盾的認知差異。就人工智能的發(fā)展而言,目前面臨的主要是技術與規(guī)則的矛盾。對此,如果簡單尋找一種類似于嚴格責任的歸責方式,勢必會導致對技術發(fā)展的桎梏,形成對新興產(chǎn)業(yè)發(fā)展的阻遏。此時政策的考量與加持不可避免。同時,在民事責任探索成果相對確定化、類型化之后,刑事責任的討論似乎才更有現(xiàn)實意義。這根本上是一個動態(tài)的價值平衡的問題。如果說前文論及的主體間性是一個主客體哲學關系的平衡,則此處言及的平衡是一個法律風險分配的平衡,即在保護數(shù)據(jù)主體的權益與發(fā)展人工智能行業(yè)間作出動態(tài)調(diào)整,顯然刑事政策具有很大的作用空間。

結(jié)語

對于人類或者創(chuàng)造者而言,執(zhí)著于討論被創(chuàng)造者(人工智能)是否擁有自由意志似乎是一個宗教性或哲學性的悖論。人工智能的自發(fā)乃至自覺會給人類社會的秩序帶來快速而重大的改變,也會帶來一些困厄。但這種改變的本質(zhì)還是對作為人的主體責任承擔方式和程度的重新厘定。人工智能可能存在“意思”自由,但不可能存在“意志”自由。無法跨越“反應性態(tài)度”這一鴻溝,其“客觀性態(tài)度”的反應特質(zhì)決定了不可能實現(xiàn)根本的主體間性轉(zhuǎn)化。

(原文刊載于《政法論壇》2025年第3期)  

編輯:武卓立