a级毛片无码免费真人,亚洲精品国产专区91在线,精品视自拍视频在线观看,免费国产成人高清在线观看直播,亚洲成人免费电影,www久久com,久久亚洲精品成人

法治號 手機版| 站內(nèi)搜索

網(wǎng)上有害信息舉報

論人工智能立法的基本路徑

2025-01-02 09:53:59 來源:法治日報-法治網(wǎng) -標(biāo)準(zhǔn)+

□ 林洹民

歐盟的《人工智能法》明確采取風(fēng)險管理進(jìn)路規(guī)范人工智能活動。風(fēng)險管理進(jìn)路未必合理。我國如果簡單地照搬他國模式進(jìn)行人工智能立法,不僅無法為世界法治貢獻(xiàn)智慧成果,也將喪失引領(lǐng)人工智能全球治理的良機。筆者將提出人工智能立法的另一種思路與策略,努力打造一種既能滿足人工智能動態(tài)監(jiān)管需求,又能促進(jìn)人工智能創(chuàng)新發(fā)展的新型治理框架。

人工智能立法風(fēng)險管理單一進(jìn)路之檢討

(一)風(fēng)險管理的正當(dāng)性問題

欲在政策上選擇風(fēng)險管理進(jìn)路,必須首先論證為什么讓個體與社會承受不可知的重大損害是值得的。并非所有人都是科技的受益者。在科技轉(zhuǎn)化過程中存在決策者、受益者與波及者三方主體。波及者是不能參與政策制定又難以享受科技福利的群體。在風(fēng)險管理路徑下,偏離一般基準(zhǔn)的人,如老人、低智力群體,往往被迫承受技術(shù)發(fā)展的不利后果,他們的特別需求也常被忽視。人們已逐漸認(rèn)識到風(fēng)險管理路徑的弊端,轉(zhuǎn)而考慮采用其他替代策略。

(二)風(fēng)險評估的可行性問題

其一,欠缺高質(zhì)量的數(shù)據(jù)和有效的模型。首先,缺乏作為量化評估基礎(chǔ)的高質(zhì)量數(shù)據(jù)。在新技術(shù)被投入應(yīng)用前,并不存在可供評估風(fēng)險的相應(yīng)數(shù)據(jù)。即便就已投入應(yīng)用的產(chǎn)品而言,受技術(shù)發(fā)展、地理、時間等各方面因素影響,所提供的數(shù)據(jù)也未必具有參考性。其次,目前并不存在評估人工智能風(fēng)險的有效模型。對新興技術(shù)的風(fēng)險評估,將因沿用舊有的分析框架而無法精確界定與測量風(fēng)險。

其二,難以準(zhǔn)確評估技術(shù)疊加引發(fā)的風(fēng)險。人工智能大語言模型引發(fā)的風(fēng)險具有疊加性,使得風(fēng)險評估更為困難。在“大模型+具體應(yīng)用”的產(chǎn)業(yè)生態(tài)中,上游基礎(chǔ)大模型和下游具體應(yīng)用之間存在著復(fù)雜的依存關(guān)系。對上游大模型的風(fēng)險評估無法預(yù)計下游應(yīng)用產(chǎn)生的具體風(fēng)險,對下游應(yīng)用的風(fēng)險評估也無法預(yù)測反饋機制對上游大模型自我學(xué)習(xí)能力的影響。

(三)風(fēng)險分類的融貫性問題

目前國際上的風(fēng)險分類模式主要有三種:風(fēng)險屬性劃分模式、風(fēng)險內(nèi)容劃分模式以及風(fēng)險程度劃分模式。風(fēng)險屬性劃分模式是一種依據(jù)風(fēng)險屬性對人工智能活動進(jìn)行分類的治理模式。風(fēng)險內(nèi)容劃分模式是依據(jù)風(fēng)險現(xiàn)實化的后果進(jìn)行分類。由于觀察者會因信息獲得渠道與關(guān)注焦點不同而總結(jié)出不同的風(fēng)險類型,風(fēng)險內(nèi)容劃分模式很難形成一套具有說服力的風(fēng)險類型。風(fēng)險程度劃分模式以歐盟《人工智能法》為代表。這一模式也存在明顯的局限性,第一,風(fēng)險程度缺乏明確的判斷標(biāo)準(zhǔn)。第二,僵化的風(fēng)險類別與高速發(fā)展的人工智能技術(shù)之間存在張力。一方面,隨著人工智能技術(shù)的發(fā)展,原本被視為限制性風(fēng)險或最小風(fēng)險的人工智能應(yīng)用可能會變得具有高風(fēng)險性甚至不可接受。另一方面,原本被認(rèn)為禁止應(yīng)用或高風(fēng)險的人工智能活動,也可能隨著安全技術(shù)措施的發(fā)展與應(yīng)用風(fēng)險程度顯著降低,但因規(guī)范的滯后性,相應(yīng)的人工智能活動將受到不當(dāng)限制。

因應(yīng)人工智能活動特性的復(fù)式立法路徑

(一)人工智能活動的雙重屬性

科技大致被劃分為專精科技和賦能科技兩類。以往的科技要么屬于專精科技,要么表現(xiàn)為賦能科技。人工智能活動同時屬于專精科技活動與賦能科技活動。人工智能研究屬于一項專精科技活動,旨在開發(fā)出可以自我分析、自我總結(jié)、自我糾錯的人工智能系統(tǒng)。人工智能研發(fā)本質(zhì)是一項科學(xué)研究,屬于專精科技活動。以往的科技常被認(rèn)為是定向的,影響范圍基本是領(lǐng)域性的,即便通過跨學(xué)科合作產(chǎn)生了一定的開放性,也不具備通用性。人工智能的出現(xiàn)改變了科技的定向性。人工智能是一項通用技術(shù),是科學(xué)研究、教育、制造、物流、運輸、司法、行政、廣告、藝術(shù)等眾多領(lǐng)域與人類生活各方面的賦能者。通過在具體應(yīng)用場景中的調(diào)整,人工智能可以滿足多樣的需求。

(二)雙重屬性下的人工智能復(fù)式立法定位

其一,作為科技法的人工智能法。人工智能活動作為科技活動的一種,應(yīng)遵守人工智能科技倫理。人工智能法的科技法屬性也意味著,我們在規(guī)范科技活動的同時應(yīng)規(guī)定適當(dāng)?shù)目萍即龠M(jìn)型制度。我國未來的人工智能立法,應(yīng)規(guī)定數(shù)據(jù)使用規(guī)則,適度突破既有的個人信息保護(hù)規(guī)則、著作權(quán)保護(hù)規(guī)則,滿足人工智能訓(xùn)練的數(shù)據(jù)需求。

其二,作為應(yīng)用法的人工智能法。人工智能賦能不同應(yīng)用場景,引發(fā)的法律關(guān)系并不相同。單一理論是無法規(guī)范復(fù)雜、多場景的人工智能應(yīng)用的,如果按照單一理論設(shè)計規(guī)則,難免會產(chǎn)生規(guī)制過嚴(yán)或過松的問題。鑒于人工智能多樣的應(yīng)用場景,人工智能賦能應(yīng)用規(guī)范不應(yīng)尋求簡單的、單一的規(guī)范框架,而應(yīng)充分重視事物的復(fù)雜性。

復(fù)式立法進(jìn)路下人工智能規(guī)范框架的展開

(一)科技法定位下的人工智能研發(fā)伴生性規(guī)范

其一,科技倫理義務(wù)化。記錄是科技系統(tǒng)自我觀察與調(diào)試的基礎(chǔ)。只要人工智能系統(tǒng)具有自我學(xué)習(xí)能力,研發(fā)者就應(yīng)承擔(dān)持續(xù)的記錄義務(wù),以實現(xiàn)對人工智能系統(tǒng)的全生命周期監(jiān)測。報告義務(wù)與記錄義務(wù)相輔相成,是同一硬幣的兩面。如果根據(jù)記錄發(fā)現(xiàn)人工智能模型存在錯誤或缺陷,研發(fā)人員應(yīng)及時向監(jiān)管機構(gòu)匯報。

通過算法備案的方式規(guī)范人工智能活動,并不符合科技法規(guī)范模式。備案可能成為變相的審批,不當(dāng)干擾科技研發(fā)。實踐中,部分監(jiān)管部門以備案之名行審批之實,過度侵蝕科技系統(tǒng)的自主性。更優(yōu)的路徑是強化人工智能開發(fā)者的持續(xù)記錄與報告義務(wù),借助科學(xué)系統(tǒng)自身的控制閥門實現(xiàn)治理目標(biāo)。

其二,建立促進(jìn)人工智能科技發(fā)展的數(shù)據(jù)制度。數(shù)據(jù)利用問題是制約人工智能發(fā)展的卡脖子問題。首先,人工智能立法可以借助可期待性同意規(guī)則,允許合理利用個人數(shù)據(jù)進(jìn)行人工智能訓(xùn)練。其次,人工智能立法應(yīng)借助數(shù)據(jù)訪問權(quán)打破數(shù)據(jù)孤島,并適當(dāng)紓解人工智能利用非個人數(shù)據(jù)的知識產(chǎn)權(quán)限制。

(二)應(yīng)用法定位下的人工智能賦能規(guī)制型制度

其一,規(guī)范人工智能多場景應(yīng)用的權(quán)利義務(wù)機制。首先,人工智能系統(tǒng)相對人的應(yīng)有權(quán)利。人工智能系統(tǒng)相對人的知情權(quán)應(yīng)受法律保護(hù)。人工智能相對人應(yīng)有權(quán)了解自己的信息是否在被人工智能系統(tǒng)處理,應(yīng)有權(quán)獲知人工智能系統(tǒng)的預(yù)設(shè)功能、局限性、不良影響等信息。個人在了解相關(guān)信息后,是否享有解釋請求權(quán)、應(yīng)用拒絕權(quán)等權(quán)利,則應(yīng)視場景而定。我國未來的人工智能法還應(yīng)專門規(guī)定請求人工溝通的權(quán)利。只有保證個人享有表達(dá)意見、獲得人為干涉的權(quán)利,人才不會淪為機器的客體。

其次,人工智能系統(tǒng)提供者與使用者的不同義務(wù)。一方面,人工智能系統(tǒng)提供者應(yīng)承擔(dān)特定的法律義務(wù),這些義務(wù)包括但不限于信息公開、人工監(jiān)督、保障系統(tǒng)穩(wěn)定性等。另一方面,人工智能系統(tǒng)使用者應(yīng)承擔(dān)謹(jǐn)慎使用、保存日志等義務(wù)。人工智能系統(tǒng)使用者應(yīng)謹(jǐn)慎使用人工智能系統(tǒng)。如果日志對診斷系統(tǒng)的運行狀態(tài)和故障是不可或缺的,人工智能系統(tǒng)使用者就有保存相關(guān)日志的義務(wù)。人工智能系統(tǒng)使用者如果發(fā)現(xiàn)人工智能在具體場景中可能產(chǎn)生歧視、侵犯人格尊嚴(yán)等問題,應(yīng)當(dāng)暫停使用該系統(tǒng),并將問題反饋給人工智能系統(tǒng)提供者。如果存在重大隱患,應(yīng)當(dāng)同時上報國家監(jiān)管機構(gòu),以防止發(fā)生不可逆的后果。

其二,調(diào)整人工智能復(fù)雜應(yīng)用活動的實驗主義治理。實驗主義治理突出體現(xiàn)為一定程度的縱向放權(quán),使得監(jiān)管機構(gòu)能夠進(jìn)行監(jiān)管實驗、積累監(jiān)管經(jīng)驗。監(jiān)管沙箱是推進(jìn)實驗主義治理的典型設(shè)計。監(jiān)管沙箱是一種由監(jiān)管機構(gòu)依據(jù)法律規(guī)定設(shè)立的受控測試環(huán)境,在限定時間內(nèi)允許人工智能系統(tǒng)進(jìn)行開發(fā)與測試。我國未來的人工智能立法應(yīng)授權(quán)監(jiān)管部門在特定地域與領(lǐng)域設(shè)立監(jiān)管沙箱,從而擺脫“操之過急”或“聽之任之”的弊端。監(jiān)管部門可以根據(jù)評估結(jié)果,適當(dāng)調(diào)整監(jiān)管沙箱政策,在摸索中尋找妥適的治理手段。此外,立法還可以通過授權(quán)監(jiān)管機關(guān)出臺專門規(guī)范性文件的方式推行實驗主義治理。我國未來的人工智能法可以賦權(quán)監(jiān)管機構(gòu)出臺專門的規(guī)范人工智能中小企業(yè)的文件,以促進(jìn)科技創(chuàng)新。

(原文刊載于《中國法學(xué)》2024年第5期)  

編輯:武卓立