劉曉春
前不久,在工業(yè)和信息化部指導下,中國信息通信研究院聯(lián)合電信終端產(chǎn)業(yè)協(xié)會發(fā)布《未成年人個人信息保護倡議》,提出要推動企業(yè)嚴格落實未成年人個人信息保護義務,研發(fā)具備一鍵啟動、防繞過功能的未成年人模式,優(yōu)化服務供給,健全保護體系等。
當前,我國已建立起較為完善的未成年人網(wǎng)絡保護立法體系,相關工作機制和治理體系也在快速形成,并取得了令人矚目的成果。其中,“未成年人模式”是我國未成年人網(wǎng)絡保護制度中較為重要的實踐。隨著《移動互聯(lián)網(wǎng)未成年人模式建設指南》等規(guī)范與標準的出臺,這一模式不斷迭代更新,已成為規(guī)范化、精細化、便利化的保護工具。然而,該模式在未成年人身份識別、內容池和功能建設、家長技能培育等方面仍存在諸多提升空間。特別是目前我國有近兩億未成年網(wǎng)民,如何有效識別其未成年人身份成為一大挑戰(zhàn),而這恰恰是對其實施特殊保護的前提。
未成年人的身份識別面臨技術和制度上的雙重挑戰(zhàn)。從技術層面看,對于未主動披露自身年齡的未成年用戶,需要平臺根據(jù)其行為特征進行評估判斷,以識別出“疑似”未成年人的用戶。這就要求平臺企業(yè)具備相應的數(shù)據(jù)積累和技術能力,開發(fā)相應的模型。但更大的困難來自制度層面。根據(jù)我國個人信息保護法的相關要求,未經(jīng)未成年人及其監(jiān)護人的明確授權同意,不得處理未成年人信息。這就導致了身份識別合規(guī)實踐的悖論——平臺企業(yè)需要識別出未成年人才有可能履行保護義務,但識別過程本身又可能違反個人信息保護法相關規(guī)定,這使得平臺企業(yè)極易陷入兩難境地。而如果不能有效識別出未成年人,就很難運用未成年人模式對未成年人實施特殊保護。
除了識別未成年人身份,在一些特殊場景下出于保護未成年人的目的,處理其個人信息并對其進行畫像同樣具有必要性。例如,面對網(wǎng)絡性侵、隔空猥褻等侵害未成年人身心健康的高危情況,有必要通過開發(fā)技術模型來分析相關場景與用戶,并及時進行預警和防范。在這些特殊場景中,如果能允許平臺企業(yè)出于保護未成年人的目的處理個人信息、分析用戶畫像,而不拘泥于嚴格的授權規(guī)則,將有助于提高平臺企業(yè)防范侵害的積極性,為未成年用戶提供更有力的保護。當然,這些信息處理行為必須嚴格遵循目的限定原則,以避免對相關信息進行超出保護目的的處理和使用。
當前,人工智能領域的各種應用,如聊天工具、人工智能助手以及各種智能體,不僅拓展了未成年人獲取信息和知識的途徑,也增強了他們制作和傳播內容的能力。然而,高度個性化、互動性的人工智能應用,由于其內容供給的私密性以及對未成年人更強的影響能力,需要建立專門的未成年人保護機制。例如,在人工智能聊天工具等場景中,可以借助人工智能強大的信息處理能力,結合未成年人的行為特征、興趣愛好及價值觀培育需求,進行個性化的內容定制和正向引導。在此過程中,收集個人信息和處理用戶畫像的價值不僅體現(xiàn)在身份識別、侵害防范等基礎領域,還體現(xiàn)在可以為未成年人提供具有吸引力的優(yōu)質內容、促進其身心健康發(fā)展等方面。這有助于我們在人工智能時代充分運用技術發(fā)展帶來的便利,開展未成年人保護工作。
未成年人網(wǎng)絡保護的愿景和目標要落到實處,筆者認為,必須承認并重視未成年人使用網(wǎng)絡和人工智能工具的現(xiàn)狀和特點。在技術上,要積極開發(fā)促進保護和發(fā)展的功能模塊;在制度上,要明確規(guī)則,確認平臺基于權益保護的未成年人個人信息和用戶畫像處理行為,屬于履行保護未成年人義務的“法定義務”,該行為可以不經(jīng)未成年人及其監(jiān)護人的授權。當然,這些處理行為應當嚴格限定在上述目的的范圍之內,并從監(jiān)管層面和行業(yè)自律層面確立更加細化的規(guī)范,避免企業(yè)陷入兩難合規(guī)境遇,為互聯(lián)網(wǎng)行業(yè)探索未成年人保護創(chuàng)新實踐提供重要制度保障。
(作者系中國社會科學院大學互聯(lián)網(wǎng)法治研究中心主任)
編輯:林楠特