上海交通大學凱原法學院林洹民在《中外法學》2025年第2期上發(fā)表題為《論人工智能致?lián)p的特殊侵權(quán)責任規(guī)則》的文章中指出:
隨著人工智能技術(shù)的跨越式發(fā)展與產(chǎn)業(yè)化應用,人工智能致?lián)p事件也在不斷增加。如果沒有一個明確、清晰的人工智能侵權(quán)責任框架,就不會有真正的人工智能安全。人工智能應用侵權(quán)在歸責與歸因?qū)用婢尸F(xiàn)較強的不確定性。面對人工智能應用帶來的挑戰(zhàn),應積極思考妥適的應對之策。將產(chǎn)品責任擴張至人工智能系統(tǒng),并不能有效解決人工智能應用引發(fā)的過錯與因果關(guān)系證明困難、新型損害難以歸入以及責任主體不清等問題。例如,人工智能系統(tǒng)具有一定的自主性,當發(fā)生人工智能侵權(quán)時,難以判斷系統(tǒng)研發(fā)者、提供者、應用者等相關(guān)主體是否具有過錯;人工智能活動具有網(wǎng)絡性,難以確定行為與損害之間是否存在因果關(guān)系。人工智能活動直接造成數(shù)據(jù)刪除、損壞、污染的,被侵權(quán)人很難證明存在損害。人工智能產(chǎn)業(yè)鏈條綿長,一項產(chǎn)品或服務涉及主體眾多,包括設計者、提供者、使用者、第三方服務商、感應器制造商等復數(shù)主體。人工智能鏈條上任何一處出現(xiàn)紕漏,均可能導致?lián)p害。
我國未來的人工智能立法應在維護體系一致性的前提下修補式地配置規(guī)則,通過信息披露規(guī)則、損害與因果關(guān)系認定規(guī)則以及特殊的多數(shù)人侵權(quán)規(guī)則,減輕被侵權(quán)人在責任成立與承擔層面的舉證壓力。被侵權(quán)人只有借助對人工智能研發(fā)記錄、活動日志等文件的訪問,才能克服信息不對稱帶來的舉證障礙。立法應規(guī)定證據(jù)開示規(guī)則,規(guī)定人工智能相關(guān)主體在一定條件下的信息披露義務,為法院發(fā)布書證提出命令提供實體法基礎。人工智能時代對虛擬損害的救濟,與其擴張物質(zhì)性損害的邊界,不若摒棄精神損害賠償認定的嚴重性要件,是采用顯著性標準。為了減輕人工智能商品消費者的因果關(guān)系證明負擔,立法應確定特定條件下的因果關(guān)系推定規(guī)則。當損害確定因義務違反行為而發(fā)生,無法查清責任源頭時,由緊密合作、相互依存的同一商業(yè)技術(shù)單元成員對損害承擔連帶責任。
編輯:武卓立