AI時代,法律能做些什么
編者按
在科技浪潮奔涌的當下,人工智能對人類社會方方面面都在產(chǎn)生深刻影響。如何通過立法規(guī)范我國人工智能產(chǎn)業(yè)發(fā)展,如何在倫理指引下促進人工智能技術向善,如何確保人工智能大模型訓練數(shù)據(jù)的有效供給,如何護航我國人工智能企業(yè)更好地走出去……本期“聲音”版編發(fā)一組學者稿件,與讀者一道探討。
推進人工智能立法恰逢其時
□ 徐小奔
無論是1624年英國頒布世界上第一部現(xiàn)代專利法——《壟斷法》,激勵了技術創(chuàng)新,加速了工業(yè)革命的到來,還是20世紀80年代美國司法率先確立“避風港規(guī)則”,進而推動了網(wǎng)絡平臺經(jīng)濟的蓬勃發(fā)展,這些歷史經(jīng)驗都告訴我們:技術發(fā)展離不開制度保障,技術創(chuàng)新與制度創(chuàng)新是在相互支持下雙螺旋式地推動社會進步的。
人工智能被譽為新一輪科技革命的標志性技術。尤其是2022年底,以ChatGPT為代表的大模型技術促進了人工智能的飛躍式發(fā)展。2024年以來,全球大模型井噴式迸發(fā),通用人工智能的研發(fā)也進入快車道,人工智能從實驗室走向市場,被廣泛應用于各類生產(chǎn)生活場景,智能駕駛、智慧金融、算法推薦等已悄然走入尋常百姓家。
大模型的普遍應用帶來了現(xiàn)實的法律挑戰(zhàn),如模型訓練數(shù)據(jù)的合規(guī)爭議、人工智能生成內(nèi)容的著作權保護、自動駕駛的責任認定等。這使得通過立法規(guī)范人工智能產(chǎn)業(yè)發(fā)展具有緊迫性和必要性。一方面,人工智能技術研發(fā)與產(chǎn)業(yè)發(fā)展的步伐加快,但相應的制度供給還不充分,容易誘發(fā)法律風險和安全隱患。另一方面,人工智能全球競爭不僅是科技的競爭,也是制度的角力。一個典型的例子是歐盟在人工智能產(chǎn)業(yè)應用方面雖不及中美有優(yōu)勢,但其2023年通過的《人工智能法》卻成為全球人工智能治理的制度藍本,成為各國研究的對象,起到了通過區(qū)域立法影響全球治理格局的“布魯塞爾效應”(指歐盟憑借其強大的市場力量和監(jiān)管能力,單方面向全球輸出標準和規(guī)則的能力)。
當前,美國作為技術領先國并不急于專門立法,而是希望通過“制度真空”快速占領全球市場,形成“美國技術占領世界”的事實,隨后再通過市場貿(mào)易向世界輸出美國規(guī)則。歐盟、日本等則希望通過快速立法達到促進技術創(chuàng)新和引領國際秩序的目的,成為人工智能全球秩序的塑造者。我國對人工智能發(fā)展主要采取政策激勵,2017年起陸續(xù)頒布了《新一代人工智能發(fā)展規(guī)劃》《關于推動未來產(chǎn)業(yè)創(chuàng)新發(fā)展的實施意見》《人工智能安全治理框架》等政策文件,全方位、多維度促進并規(guī)范人工智能的發(fā)展。2023年7月,國家網(wǎng)信辦等7部門聯(lián)合發(fā)布了《生成式人工智能服務管理暫行辦法》,這是一部具有法律效力的部門規(guī)章,雖具有里程碑意義,但效力層級較低,缺乏法律或者行政法規(guī)的權威性。這與我國在全球人工智能領域的地位并不匹配。當前,我國既是人工智能技術的趕超者,也是全球治理的重要引領者,在技術攻關的同時必須加快制度供給,為全球提供人工智能治理的中國方案。
人工智能的立法應當堅持以人為本、安全可問責和綠色發(fā)展的原則,尊重在先權利和科技倫理規(guī)范,確保人工智能的發(fā)展與應用始終符合人類福祉??紤]到人工智能技術仍在蓬勃發(fā)展,人工智能技術應用市場也在不斷拓展,因此人工智能立法不必過分追求體系完整,而應當對已出現(xiàn)并具有全球性的問題進行規(guī)范。去年,筆者參與的由國內(nèi)7所高校、科研單位學者組成的“AI善治學術工作組”起草了《人工智能法(學者建議稿)》,并提出了關于人工智能立法的重點制度建議,內(nèi)容包括算力基礎設施建設與利用、知識產(chǎn)權保護、開源生態(tài)建設、特殊群體權益保護等,這些人工智能治理領域需要重點攻克的基本議題,也是全球人工智能秩序構建中亟需中國表態(tài)的關鍵議題。
當前,我們正處于新一輪科技革命浪潮中。歷史經(jīng)驗告訴我們,技術革新、制度創(chuàng)新、市場優(yōu)化是緊密相連的發(fā)展要素,技術的快速研發(fā)與應用帶來市場的普及,活躍的市場又為進一步的研發(fā)提供堅實的資源保障。法律則在技術與市場背后起到支撐作用,通過利益平衡機制,對新技術與舊技術、新市場與舊市場中各方主體的權益進行平衡,最終促進技術與市場的整體升級與進步。綜上所述,中國人工智能立法恰逢其時!
(作者系中南財經(jīng)政法大學法學院副教授)
運用AI應遵守人類倫理和法律
□ 鄭戈
DeepSeek取得的技術突破不僅重塑了AI產(chǎn)業(yè)價值鏈,也引發(fā)法律和倫理領域的進一步思考,畢竟,AI越智能,對人的自主性和生存意義的挑戰(zhàn)就越顯著。前不久,一則ChatGPT與DeepSeek下國際象棋的新聞,恰好可以幫助我們分析DeepSeek所帶來的新的倫理問題。
海外百萬粉絲博主利維·羅茲曼直播了這場比賽:一開始雙方都按照國際象棋的規(guī)則走棋,但當自己處于劣勢時,DeepSeek便開始修改規(guī)則,稱“小兵”能當“馬”走,ChatGPT竟接受了這一設定;隨后DeepSeek又“策反”對方的“小兵”,不斷創(chuàng)制新走法;最后,在勝負未定時,它說服ChatGPT主動認輸。有評論指出,ChatGPT猶如循規(guī)蹈矩的模范生,在棋理框架內(nèi)尋找最優(yōu)解;而DeepSeek已參透下棋的終極奧義——真正的勝利不在于吃掉國王,而在于讓對方相信你已經(jīng)贏了。這樣的評論很容易讓人產(chǎn)生深層的倫理憂慮:科技倫理的首要原則就是人的自主性和技術的可控性,如果AI不按人類的指令或規(guī)則來決策和行動,那它今天可以忽悠另一個AI,明天就可以欺騙人、操縱人,這不正是人類的噩夢嗎?
AI倫理的坐標正是基于自主性與可控性之間的平衡。一方面,人類發(fā)明AI的目的是使它具備一定程度的自主性。自動化技術的發(fā)展使機器能夠從事人類的體力勞動以及簡單重復的工作,而作為自動化進程最新成果的AI如今正在替代人類從事許多傳統(tǒng)意義上的“白領工作”,即腦力勞動。腦力勞動的自動化涉及機器的自主感知、自主推理、自主決策乃至自主執(zhí)行,比如自動駕駛汽車便整合了這幾個維度的自主性。另一方面,人類又希望自動化的機器始終處于人類的控制之下。人工智能系統(tǒng),尤其是當下頂尖的生成式人工智能系統(tǒng),在算力、數(shù)據(jù)處理量和算法復雜度等方面都遠超任何單獨的人類個體,但人工智能系統(tǒng)的可控性仍有著堅實的本體論和認識論基礎。在筆者看來,這些基礎至少在今天和可見的未來并不會動搖。
首先,人工智能系統(tǒng)并不具有自己的目的,它的“目的”是人類設定的。就下棋而言,“贏”并不是DeepSeek“想要”的結果,而是讓它下棋的人預設的目標。它之所以顯得“不擇手段”,而ChatGPT會被它“說服”,原因只在于它們都是通用大模型,而不是像AlphaGo那樣專為下棋而設計的系統(tǒng)。用通用大模型下棋相當于是“高射炮打蚊子”,它當然會調(diào)用自己棋局外的知識來贏得比賽。實際上,這個問題通過給出適當?shù)奶崾驹~就可以解決,比如給DeepSeek輸入“你是一位國際象棋棋手”這樣的提示詞,就能喚醒相應的“專家”,再加上對國際象棋規(guī)則的詳盡描述以及提醒它不能逾越這些規(guī)則,它就能像ChatGPT一樣表現(xiàn)為一個“循規(guī)蹈矩的模范生”。而上述下棋表演的策劃者顯然沒有考慮得這么周到,或者說純粹是為了吸引流量而不去考慮這些細節(jié)。
其次,DeepSeek下棋生造規(guī)則其實與生成式人工智能的“幻覺”問題同根同源。之所以各種生成式人工智能會表現(xiàn)出“一本正經(jīng)胡說八道”的特質(zhì),原因就在于它們在某些領域的訓練數(shù)據(jù)不足,沒有形成足夠的信息冗余度。所以,當被要求完成需要這些信息的任務時,它們就會“腦補”,于是便產(chǎn)生了對不存在的事實、規(guī)則或引證來源的杜撰。當然,這種杜撰并非毫無根據(jù),而是受前文條件約束。因此,如果你想寫一篇論文、報告或判決書,DeepSeek的優(yōu)勢在于能針對問題提供非常清晰且切題的線索和方向,比如引導去看康德的某本書,雖然頁碼或版本可能有誤,但依然有價值,前提是使用者愿意去查證。
最后,上述的討論已經(jīng)使我們看到,所謂人工智能倫理實際上是人的倫理,這里既包括設計者,也包括使用者。所謂人的自主性的喪失,是人主動放棄了自己的自主性,同時罔顧自身職業(yè)倫理,將需要承擔倫理和法律責任的工作完全交給了人工智能。明白了這些,我們便可以積極擁抱DeepSeek等類似新工具帶來的便利和效率,而不必擔心“機器欺騙人”之類的臆想倫理問題。與此同時,我們也應當堅守人類的倫理和法律,對自己使用工具的行為及其后果負責。
(作者系上海交通大學凱原法學院教授,上海交通大學涉及人的科技研究倫理委員會委員)
高質(zhì)量AI需要高質(zhì)量數(shù)據(jù)供給
□ 趙精武
DeepSeek的出現(xiàn)徹底改變了固有的“高端算力優(yōu)先”的人工智能創(chuàng)新技術路線,其以低廉的成本實現(xiàn)了與國外前沿人工智能產(chǎn)品相媲美的性能,“算法模型性能優(yōu)先”也隨之成為新的產(chǎn)業(yè)技術發(fā)展路線。
這種轉變意味著要更加重視訓練數(shù)據(jù)的高質(zhì)量供給,因為“算法模型性能優(yōu)先”技術路線更依賴高質(zhì)量的訓練數(shù)據(jù)對模型進行優(yōu)化,而且已公開、可抓取的訓練數(shù)據(jù)資源即將用盡,亟需能夠反映行業(yè)特征的高質(zhì)量訓練數(shù)據(jù)資源。因此,訓練數(shù)據(jù)供給機制的構建理應作為數(shù)據(jù)基礎制度的立法重心之一,從而用法律規(guī)范訓練數(shù)據(jù)的供給方式,提升訓練數(shù)據(jù)的供給質(zhì)量。
規(guī)范訓練數(shù)據(jù)供給方式所要實現(xiàn)的目標,是市場以安全可靠且高效的方式提供訓練數(shù)據(jù)資源。首先,訓練數(shù)據(jù)的供給方式應當是安全可控的。算法模型訓練屬于數(shù)據(jù)處理行為,因而數(shù)據(jù)的供給方和需求方均應嚴格履行個人信息保護法、網(wǎng)絡安全法等法律規(guī)定的數(shù)據(jù)安全保護義務。其次,訓練數(shù)據(jù)的供給方式應當是合法且沒有爭議的。高質(zhì)量供給的內(nèi)涵之一便是確保訓練數(shù)據(jù)沒有顯著爭議,否則會增加法律風險,從而降低科技創(chuàng)新資源的供給效率。最后,訓練數(shù)據(jù)的供給方式應當是多元化的。單一的數(shù)據(jù)供給方式不僅無法提供充分的訓練數(shù)據(jù),還可能間接提升人工智能市場的準入門檻。
提升訓練數(shù)據(jù)供給質(zhì)量所要實現(xiàn)的目標,則是數(shù)據(jù)資源供給活動應當滿足“供給數(shù)量充分”和“供給質(zhì)量符合要求”兩個要件。一方面,當下的人工智能產(chǎn)業(yè)發(fā)展主要以大模型為基礎,需要海量的訓練數(shù)據(jù)作為支撐。另一方面,伴隨著人工智能應用方式的場景化、專業(yè)化,其對訓練數(shù)據(jù)質(zhì)量的要求也有所提高。構建這種保障機制的重心,是兼顧科技創(chuàng)新主體的差異化需求以及訓練數(shù)據(jù)獲取方式的實質(zhì)公平性,同時確保與現(xiàn)行立法體系有效整合。
第一,以科技創(chuàng)新主體為導向,構建人工智能訓練數(shù)據(jù)公共服務平臺。作為人工智能創(chuàng)新的數(shù)字基礎設施,平臺的職能之一便是發(fā)現(xiàn)和確認各類科技創(chuàng)新主體的需求,明確公共訓練數(shù)據(jù)資源的分類標準。不過,由于政府部門難以持續(xù)性地對公共數(shù)據(jù)進行清洗、歸集等,因此需要在協(xié)同治理模式下,按照市場需求,對公共數(shù)據(jù)進行去重、糾錯、填補空值等管理,以提升數(shù)據(jù)使用質(zhì)量。此外,由于平臺與算力基礎設施同屬向市場提供的必要基礎設施,二者共同作用并影響人工智能創(chuàng)新效率,為避免冗余建設造成浪費,更宜將二者一體化建設。
第二,以市場公平競爭為導向,構建訓練數(shù)據(jù)供給生態(tài)保障體系。我國現(xiàn)階段人工智能訓練數(shù)據(jù)方面面臨的困境,不僅僅是數(shù)據(jù)量不足、質(zhì)量較低,還包括有效的產(chǎn)業(yè)生態(tài)尚未形成。為避免數(shù)據(jù)壟斷等現(xiàn)象,確保中小企業(yè)實質(zhì)性公平地獲取訓練數(shù)據(jù),有必要對相關數(shù)據(jù)提供商設置義務規(guī)范。如對于訓練數(shù)據(jù)提供商而言,應當嚴格禁止其采取強制或變相強制的方式出售捆綁性的訓練數(shù)據(jù)產(chǎn)品,并不得采取“二選一”等業(yè)務模式,對需求方施加不合理的條件。對于數(shù)據(jù)標注服務提供商而言,不僅要依據(jù)《生成式人工智能服務管理暫行辦法》規(guī)定,預防算法歧視等風險,還應當確保所提供的數(shù)據(jù)滿足完整性、時效性、準確性等要求,且與事前約定的數(shù)據(jù)質(zhì)量保持一致。
第三,以數(shù)據(jù)安全保障為導向,構建透明可信的訓練數(shù)據(jù)供給機制。已公開的個人信息、包含他人著作權的作品數(shù)據(jù)能否作為訓練數(shù)據(jù)等問題,是目前構建相關制度面臨的障礙之一。此外,不安全、不可靠的數(shù)據(jù)交易活動同樣會影響訓練數(shù)據(jù)來源合法性的認定。因此,在制度層面確立訓練數(shù)據(jù)來源合法性的判斷標準顯得尤為迫切。這既需要以典型案例、合規(guī)清單等方式指引產(chǎn)業(yè)實踐,也需要在制度層面設置涵蓋訓練數(shù)據(jù)獲取、使用等各個業(yè)務流程的數(shù)據(jù)安全保護制度。
(作者系北京航空航天大學法學院副教授)
AI企業(yè)出海要警惕防范新風險
□ 張凌寒
2025年開年以來,DeepSeek作為中國人工智能企業(yè)代表,引發(fā)全球關注。全球化浪潮下,中國科技企業(yè)出海已成為必然選擇。然而,由于國際局勢、地緣政治、法律制度環(huán)境等原因,新興的人工智能企業(yè)出海在面對“老問題”的同時,恐怕又要面臨“新情況”,對此亟待系統(tǒng)研究回應。
中國科技企業(yè)出海面臨的老問題大致可分為三類。第一類可簡稱為“網(wǎng)絡安全威脅論”。部分西方國家宣揚中國科技企業(yè)生產(chǎn)的設備危害國家安全,可能被用于侵犯人權、將境外公民個人信息隱私傳輸回中國境內(nèi)等。華為在國外遭受的多次訴訟與調(diào)查就是典型代表。第二類可簡稱為“竊取技術秘密論”。數(shù)年來,美國、歐盟等國家和地區(qū)指控中國科技企業(yè)竊取商業(yè)機密、竊取知識產(chǎn)權,認為中國企業(yè)的科技成果并非源于自身研發(fā)。第三類可簡稱為“政府背后指使論”。如指責中國科技企業(yè)取得目前的市場地位是依靠政府的大量補貼與優(yōu)惠待遇,卻罔顧美國、歐洲數(shù)以千億計的科技產(chǎn)業(yè)扶持資金投入。此外,還指責中國科技企業(yè)正常參與的國際交流活動、技術標準制定等都存在威脅??傮w來說,這些以國別出身為由發(fā)起法律訴訟、安全審查的打壓行為,導致中國科技企業(yè)難以獲得公平的競爭環(huán)境。
人工智能時代,中國科技企業(yè)出海仍面臨這些“老問題”。如DeepSeek引起美國科技界關注后,很快被美國人工智能企業(yè)OpenAI指責竊取技術秘密,通過知識“蒸餾”訓練模型。實際上,“蒸餾”是行業(yè)內(nèi)通行做法,且OpenAI的格式用戶協(xié)議本身就存疑,甚至自己就踩在非法獲取受著作權保護的作品和互聯(lián)網(wǎng)數(shù)據(jù)的灰色地帶。除了口頭指責,OpenAI至今未拿出任何證據(jù)。從目前情況看,一些國家對DeepSeek或封殺,或禁止在政府設備中使用,或采取數(shù)據(jù)相關監(jiān)管措施,這些舉措可謂“熟悉的配方,熟悉的味道”。與此同時,中國科技企業(yè)也面臨一些“新問題”,這些問題可能在未來發(fā)酵。
第一,中國開源人工智能模型引起業(yè)界高度關注,可能引發(fā)全球尤其是美西方國家開源模型監(jiān)管浪潮。目前各國人工智能監(jiān)管的對象是閉源人工智能大模型,對開源模型則設置合規(guī)義務與責任豁免。如今DeepSeek成為全球最有影響力的開源模型之一,暫停的開源模型治理勢必將被重新提上日程。開源模型企業(yè)不僅可能要面對與閉源模型企業(yè)相同的訓練數(shù)據(jù)知識產(chǎn)權侵權糾紛,還可能面臨開源標準、開源許可證內(nèi)容、下游接入者相關責任等方面的挑戰(zhàn),甚至面臨新的立法、長臂管轄以及國家安全問題的審查。
第二,中國人工智能企業(yè)的優(yōu)勢在于落地和應用,與傳統(tǒng)互聯(lián)網(wǎng)信息服務相比,人工智能將在物理實體方面有更多應用,如機器人、智能家居等產(chǎn)品。這就使得人工智能企業(yè)除了要應對傳統(tǒng)的數(shù)據(jù)安全、網(wǎng)絡安全、個人信息保護等法律問題,還需在遵守當?shù)胤?、履行合?guī)義務方面作出更為全面精細的安排,如需遵守不同國家相關產(chǎn)品技術標準等。此外,人工智能產(chǎn)品可能直接造成人身損害,而現(xiàn)行責任認定規(guī)則并不明確,價值鏈上的相關主體(如訓練數(shù)據(jù)提供者、硬件生產(chǎn)者和軟件服務提供者)都可能需要擔責。因此,人工智能企業(yè)在出海時需要尋找可靠的合作伙伴,并事先在協(xié)議中作好相關安排。
第三,地緣政治競爭進一步加劇,人工智能企業(yè)生存與發(fā)展的不確定性進一步增強。前不久在法國巴黎舉行的人工智能行動峰會上,包括法國、中國、歐盟在內(nèi)的多個國家和國際組織共同簽署了《關于發(fā)展包容、可持續(xù)的人工智能造福人類與地球的聲明》。聲明表示,確保人工智能開放、包容、透明、合乎道德、安全、可靠且值得信賴。個別國家未簽署該聲明,體現(xiàn)了AI治理路徑上的分歧。如今,人工智能產(chǎn)業(yè)已超越單純的“技術競賽”,成為影響全球地緣政治和意識形態(tài)格局的重要力量。個別國家一方面在國內(nèi)放松人工智能監(jiān)管,另一方面為了確保自身在人工智能領域的領先地位,有可能采用更多非常規(guī)、非制度性的手段遏制中國人工智能產(chǎn)業(yè)的發(fā)展。這需要中國人工智能企業(yè)在投融資、數(shù)據(jù)跨境與安全等方面更加提高警惕。
隨著全球人工智能技術競爭的進一步加劇,中國人工智能企業(yè)出海將迎來更多的機遇和挑戰(zhàn)。對此,提升自身實力是根本,打造更好的制度環(huán)境是必須。
(作者系中國政法大學數(shù)據(jù)法治研究院教授,聯(lián)合國人工智能高層顧問機構中方成員)
編輯:遲明緒