AI時代“深度偽造”興風作浪如何治?辦法來了!
隨著生成式AI的爆發(fā),社交媒體上的內(nèi)容越來越真假難辨。為規(guī)范人工智能生成合成內(nèi)容標識,近日,國家網(wǎng)信辦起草的《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》(以下簡稱《辦法》),面向社會公開征求意見。圍繞相關話題,法治網(wǎng)研究院近日邀請了南開大學法學院副院長陳兵教授、西南政法大學人工智能法學院院長陳亮教授、華東政法大學國家安全研究院副院長闕天舒教授、中國政法大學數(shù)據(jù)法治研究院張凌寒教授、《法治日報》律師專家?guī)斐蓡T茍博程律師展開了一場深度對談。
01
法治網(wǎng)研究院:我們注意到,《辦法》要求, 在文本、圖片、音頻、視頻等應用場景,要對人工智能生成合成內(nèi)容添加顯著的提示標識。通俗地講,就是要給人工智能生成合成內(nèi)容打上“專屬水印”。在您看來,當前人工智能生成合成內(nèi)容為什么迫切需要添加顯著的提示標識?
陳亮:當前,魚龍混雜、真假難辨的AI生成內(nèi)容的激增,引發(fā)人們對其透明度、真實性和誤導性的關注和憂慮。充斥于各大網(wǎng)絡平臺的虛假AI生成內(nèi)容,正成為滋生民事侵權乃至刑事犯罪的溫床,也影響了消費者與平臺之間的信任關系,進而阻礙了人工智能產(chǎn)業(yè)的良性健康發(fā)展。
為AI生成內(nèi)容添加顯著提示標識,提醒消費者相關內(nèi)容的生成方式,提高消費者的警惕性,可以大大降低AI生成內(nèi)容的欺騙、誤導乃至操縱等風險,搭建起平臺與受眾之間的信任紐帶,從而很好地平衡創(chuàng)新激勵與權利保護之間的緊張關系。
陳兵:自生成式人工智能技術廣泛應用以來,大量AI生成內(nèi)容涌入賽博空間,在豐富網(wǎng)絡內(nèi)容、降低生產(chǎn)成本、增進制作效率的同時,也引發(fā)了大量的數(shù)據(jù)污染、內(nèi)容造假、知識產(chǎn)權侵權、利用生成內(nèi)容進行詐騙、無底線博流量等一系列亂象。
對人工智能生成合成內(nèi)容添加顯著的提示標識,首先,能夠給予內(nèi)容受眾區(qū)分AI生成合成內(nèi)容與人類創(chuàng)作內(nèi)容的能力,保障公眾知情權;其次,有助于壓實相關主體責任,防范虛假信息的傳播,營造清朗的網(wǎng)絡空間;最終,能夠促進人工智能技術的透明度與可信度的提升,確保人工智能實現(xiàn)堅持高質(zhì)量發(fā)展與高水平安全良性互動。
闕天舒:人工智能生成內(nèi)容亦真亦假、難以辨別,一些深度偽造的信息容易以假亂真,干擾人們的正常判斷。
從消費者權益保護的角度,對人工智能生成內(nèi)容進行標識是履行產(chǎn)品信息披露義務、保障消費者知情權的具體體現(xiàn)。從知識產(chǎn)權保護的角度,對人工智能生成內(nèi)容進行標識是緩和生成作品產(chǎn)權歸屬爭論、促進人工智能創(chuàng)作物市場構(gòu)建的關鍵路徑。從人工智能治理的角度,對人工智能生成內(nèi)容進行標識是提升人工智能透明度、增強算法可解釋性的重要方式。
張凌寒:隨著生成內(nèi)容越來越逼真,人們在一般社會生活中已經(jīng)難以辨別其真?zhèn)?。生成式人工智能可能被用于傳播虛假信息、侮辱誹謗、詐騙甚至更嚴重的違法犯罪活動中。
對人工智能生成合成內(nèi)容添加標識,一方面提示受眾保持謹慎,避免輕信誤信和隨意轉(zhuǎn)發(fā);另一方面還可用于確認內(nèi)容來源,便于界定責任范圍,是對人工智能監(jiān)管問責制度的重要補充。
02
法治網(wǎng)研究院:近年來,人工智能生成合成內(nèi)容獲得快速發(fā)展,給人們的生產(chǎn)生活帶來極大便利和優(yōu)質(zhì)體驗。與此同時,利用AI實施詐騙、侵權等違法犯罪的數(shù)量也在明顯增加。您認為,對于人工智能生成合成內(nèi)容的服務提供者、互聯(lián)網(wǎng)應用程序分發(fā)平臺而言,應當如何對照《辦法》的相關內(nèi)容,進一步做好合規(guī)工作?
張凌寒:對于內(nèi)容服務平臺,內(nèi)容標識義務至少包括兩個重要方面:一是明確標識所采用的技術方案,確保標識包含《辦法》所要求的各類信息。
二是建立相應的標識識別、核驗機制,引導、敦促用戶主動聲明上傳的生成內(nèi)容并使用平臺提供的標識工具,還應對用戶上傳的內(nèi)容及其標識情況進行核驗,確保生成內(nèi)容始終處于被標識狀態(tài)。應用程序分發(fā)平臺則需要制定核驗服務提供者標識功能的規(guī)程,確保程序上線時標識功能的正常運行。
茍博程:面對《辦法》即將頒布實施的現(xiàn)實,服務提供者和互聯(lián)網(wǎng)應用程序分發(fā)平臺應積極部署合規(guī)措施。
首先,完善技術手段,確保所有AI生成的文本、圖片、音頻、視頻內(nèi)容均添加顯著的提示標識或“水印”。其次,建立和健全內(nèi)容審核機制,實時監(jiān)控和過濾可能存在的違法違規(guī)內(nèi)容。最后,加強用戶教育,提醒用戶辨別AI生成內(nèi)容,防范潛在風險。同時,積極與監(jiān)管部門溝通,及時了解和適應政策變化,確保平臺運營合法合規(guī)。
03
法治網(wǎng)研究院:目前,《辦法》正處于面向社會公開征求意見階段。對于《辦法》,您最想提的建議和意見是什么?
陳兵:《辦法》既是對服務提供者自我合規(guī)的指引,也是對監(jiān)管部門提供的監(jiān)管要求及監(jiān)管規(guī)則。因此,《辦法》對于標注方式的規(guī)定應當做到清晰、明確,具有可及性與可操作性。
對于顯示標識而言,《辦法》第四條雖然對顯示標識的應用場景與添加位置進行了明確規(guī)定,但目前尚缺乏對于標識具體的位置、字形、表達、標定時間等具體信息予以詳細規(guī)定;對于隱性標識而言,數(shù)字水印等技術存在技術差異與多平臺兼容,這方面《辦法》也需要對技術標準與兼容性進行要求。當然,這個有關技術標準及兼容性,特別是技術上的可兼容與商業(yè)場景下的兼容性還有不同內(nèi)涵,若想明確在《辦法》中規(guī)定,客觀上也確實存在一定困難。然而,這個問題在推動整個《辦法》的實效性上卻是非常重要的,必須予以重視。我建議,可以考慮做好轉(zhuǎn)引條款的設計,至少提供下一步解決的預留接口。
陳亮:內(nèi)容標簽往往通過兩種路徑來降低人工智能可能帶來的風險:一是關注生成內(nèi)容的技術流程,旨在向用戶傳達特定內(nèi)容的生成方式,而對生成內(nèi)容的潛在危害不予置評;二是關注生成內(nèi)容的潛在危害,而對生成內(nèi)容的技術流程不予置評。
《辦法》更多的是采用第一種方式,從而對生成內(nèi)容對平臺用戶或整個社會的潛在影響持不可知論的態(tài)度,這無疑加重了用戶認知負擔,對用戶的認知模式和認知能力提出了一定挑戰(zhàn)。我建議,進一步增加有關生成內(nèi)容潛在危害的標識,以減輕用戶因認知模式和認知能力局限而無法研判AI生成內(nèi)容潛在影響所帶來的決策偏差或決策失誤。
闕天舒:在標識方式上,《辦法》區(qū)分了隱式標識和顯式標識。關于隱式標識,依照《辦法》規(guī)定,似乎所有情形下均應添加。我認為這方面有待商榷,應當明確特殊情況下無需進行隱式標識的情形。比如,生成來源絕對可靠時,就沒必要進行標識。關于顯式標識,我認為,針對一些特殊領域的人工智能生成場景,不僅要標識“人工智能生成內(nèi)容”,還要作一些指引性的提示。比如,當生成內(nèi)容涉及政治、軍事、法律、醫(yī)學、倫理等專業(yè)領域時,應當特別提示服務使用者咨詢專業(yè)人士意見。
專家簡介
陳亮
西南政法大學人工智能法學院院長、教授、博士生導師,中國法學會環(huán)境與資源法學研究會常務理事,文化和旅游部法治專家委員會委員
陳兵
南開大學法學院副院長、教授、博士生導師,中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員,中國法學會經(jīng)濟法學研究會常務理事
闕天舒
華東政法大學中國法治戰(zhàn)略研究院黨總支副書記、副院長,國家安全研究院副院長,教授、博士生導師,專注人工智能時代的國家安全治理、全球數(shù)據(jù)安全治理等領域研究
張凌寒
中國政法大學數(shù)據(jù)法治研究院教授、博士生導師,中國法學會網(wǎng)絡與信息法學研究會理事
茍博程
北京市康達律師事務所高級合伙人,《法治日報》律師專家?guī)斐蓡T
選題策劃|法治網(wǎng)研究院
文|沈若水
監(jiān)制|余瀛波
編輯:遲明緒