鄭 戈
DeepSeek取得的技術(shù)突破不僅重塑了AI產(chǎn)業(yè)價值鏈,也引發(fā)法律和倫理領(lǐng)域的進一步思考,畢竟,AI越智能,對人的自主性和生存意義的挑戰(zhàn)就越顯著。前不久,一則ChatGPT與DeepSeek下國際象棋的新聞,恰好可以幫助我們分析DeepSeek所帶來的新的倫理問題。
海外百萬粉絲博主利維·羅茲曼直播了這場比賽:一開始雙方都按照國際象棋的規(guī)則走棋,但當自己處于劣勢時,DeepSeek便開始修改規(guī)則,稱“小兵”能當“馬”走,ChatGPT竟接受了這一設(shè)定;隨后DeepSeek又“策反”對方的“小兵”,不斷創(chuàng)制新走法;最后,在勝負未定時,它說服ChatGPT主動認輸。有評論指出,ChatGPT猶如循規(guī)蹈矩的模范生,在棋理框架內(nèi)尋找最優(yōu)解;而DeepSeek已參透下棋的終極奧義——真正的勝利不在于吃掉國王,而在于讓對方相信你已經(jīng)贏了。這樣的評論很容易讓人產(chǎn)生深層的倫理憂慮:科技倫理的首要原則就是人的自主性和技術(shù)的可控性,如果AI不按人類的指令或規(guī)則來決策和行動,那它今天可以忽悠另一個AI,明天就可以欺騙人、操縱人,這不正是人類的噩夢嗎?
AI倫理的坐標正是基于自主性與可控性之間的平衡。一方面,人類發(fā)明AI的目的是使它具備一定程度的自主性。自動化技術(shù)的發(fā)展使機器能夠從事人類的體力勞動以及簡單重復(fù)的工作,而作為自動化進程最新成果的AI如今正在替代人類從事許多傳統(tǒng)意義上的“白領(lǐng)工作”,即腦力勞動。腦力勞動的自動化涉及機器的自主感知、自主推理、自主決策乃至自主執(zhí)行,比如自動駕駛汽車便整合了這幾個維度的自主性。另一方面,人類又希望自動化的機器始終處于人類的控制之下。人工智能系統(tǒng),尤其是當下頂尖的生成式人工智能系統(tǒng),在算力、數(shù)據(jù)處理量和算法復(fù)雜度等方面都遠超任何單獨的人類個體,但人工智能系統(tǒng)的可控性仍有著堅實的本體論和認識論基礎(chǔ)。在筆者看來,這些基礎(chǔ)至少在今天和可見的未來并不會動搖。
首先,人工智能系統(tǒng)并不具有自己的目的,它的“目的”是人類設(shè)定的。就下棋而言,“贏”并不是DeepSeek“想要”的結(jié)果,而是讓它下棋的人預(yù)設(shè)的目標。它之所以顯得“不擇手段”,而ChatGPT會被它“說服”,原因只在于它們都是通用大模型,而不是像AlphaGo那樣專為下棋而設(shè)計的系統(tǒng)。用通用大模型下棋相當于是“高射炮打蚊子”,它當然會調(diào)用自己棋局外的知識來贏得比賽。實際上,這個問題通過給出適當?shù)奶崾驹~就可以解決,比如給DeepSeek輸入“你是一位國際象棋棋手”這樣的提示詞,就能喚醒相應(yīng)的“專家”,再加上對國際象棋規(guī)則的詳盡描述以及提醒它不能逾越這些規(guī)則,它就能像ChatGPT一樣表現(xiàn)為一個“循規(guī)蹈矩的模范生”。而上述下棋表演的策劃者顯然沒有考慮得這么周到,或者說純粹是為了吸引流量而不去考慮這些細節(jié)。
其次,DeepSeek下棋生造規(guī)則其實與生成式人工智能的“幻覺”問題同根同源。之所以各種生成式人工智能會表現(xiàn)出“一本正經(jīng)胡說八道”的特質(zhì),原因就在于它們在某些領(lǐng)域的訓(xùn)練數(shù)據(jù)不足,沒有形成足夠的信息冗余度。所以,當被要求完成需要這些信息的任務(wù)時,它們就會“腦補”,于是便產(chǎn)生了對不存在的事實、規(guī)則或引證來源的杜撰。當然,這種杜撰并非毫無根據(jù),而是受前文條件約束。因此,如果你想寫一篇論文、報告或判決書,DeepSeek的優(yōu)勢在于能針對問題提供非常清晰且切題的線索和方向,比如引導(dǎo)去看康德的某本書,雖然頁碼或版本可能有誤,但依然有價值,前提是使用者愿意去查證。
最后,上述的討論已經(jīng)使我們看到,所謂人工智能倫理實際上是人的倫理,這里既包括設(shè)計者,也包括使用者。所謂人的自主性的喪失,是人主動放棄了自己的自主性,同時罔顧自身職業(yè)倫理,將需要承擔倫理和法律責任的工作完全交給了人工智能。明白了這些,我們便可以積極擁抱DeepSeek等類似新工具帶來的便利和效率,而不必擔心“機器欺騙人”之類的臆想倫理問題。與此同時,我們也應(yīng)當堅守人類的倫理和法律,對自己使用工具的行為及其后果負責。
(作者系上海交通大學(xué)凱原法學(xué)院教授,上海交通大學(xué)涉及人的科技研究倫理委員會委員)
編輯:林楠特