文章來源:《自然辯證法研究》2019年05期;
作者單位:閆坤如,華南理工大學馬克思主義學院;
基金項目:國家社科一般項目“現代技術風險的認識論問題研究”(18ZXB047)。
內容摘要:人工智能機器是否具有道德以及是否構成道德主體引發學者思考,這涉及到對于道德主體的界定、對道德主體標準的思考,更涉及到對于智能機器與人類的區別的反思,我們在對道德主體標準分析的基礎上,對道德嵌入的人工道德主體進行倫理建構,在智能機器設計之初把"善"的理念嵌入到人工智能機器中,促進與引導人工智能的發展。
關鍵詞:道德主體;準道德主體;道德物化;分布式道德;
人工智能先驅圖靈( Alan Turing) 在論文《計算機器與智能》中提出“機器是否能夠思維?”的疑問,同時提出機器可能具有智能的特征。“一臺沒有肢體的機器所能執行的命令,必須像上述例子( 做家庭作業) 那樣,具有一定的智能特征”〔1〕。強人工智能就是讓機器實現人類智能,并且機器不僅僅是實現人類智能的工具,機器具有人類智能,那么計算機或者機器是否能夠成為像人類一樣的道德主體呢? 這引發學者思考。我們通過學者對道德主體研究的嬗變以及對于道德主體標準的界定來分析。
一、道德主體的研究嬗變
1.道德主體從人到生命體的拓展。人工智能是否具有道德主體地位涉及到對道德主體研究的溯源。道德主體( Moral agent) 法律術語譯為“道德代理人”,指的是能夠具有主觀判斷且能夠承擔法律責任的人。道德主體指的是具有自我意識,能夠進行道德認知、能夠進行推理并形成自我判斷、能夠進行道德選擇與實施道德行為且承擔道德責任的道德行為體。從這個意義來講,只有具有理性思維能力的人類才具有道德主體地位。嬰幼兒、精神病患者等理性有限的人群雖然具有某些基本的道德能力,但不能完全對自己的行為負責,不能稱其為道德主體。康德( Kant) 把道德看作是理性當事人之間的關系,因此,嬰幼兒、精神病患者以及其它動物應排除在道德主體的范疇之外。動物倫理學家彼得·辛格( Peter Singer)反對這樣的觀點,辛格提倡動物解放,認為動物具有與人同樣的主體地位; 在費因伯格( Joel Feinburg) 看來,動物與人都是生物進化的結果,動物具有人類的意識與欲望,應該享有人類主體一樣的生存權與自主權,應該賦予動物與人類一樣的道德主體地位。植物因為不具備動機、意識、沖動等,所以植物不可能具有人類權益與道德身份。環境倫理學之父羅爾斯頓( Holmes Rolston)主張自然內在價值的合理性,環境包括動物、植物在內都具有道德主體地位。自然界的自然屬性中包含的一切生命體都具有道德主體地位。
2.道德主體從生命體到技術人工物的轉變。1992年,拉圖爾( Bruno Latour) 提出技術人工物可以執行人類道德,且執行道德規則的方式與人類相似,技術人工物可以看作道德主體。比如,人工設計的道路減速帶作為一種道德媒介執行道德規則,對汽車駕駛員的道德行為產生影響,從而避免車輛超速駕駛,這樣,調節主體行為的技術人工物具有潛在的道德主體地位。2004年,維貝克( Pe-ter - paul Verbeek)提出“道德物化( materialization of morality)”的觀點,所謂“道德物化”指的是把抽象的道德理念通過恰當的設計,在人工物的結構和功能中得以體現,從而對人的行為產生道德意義上的引導和規范作用。維貝克承認了技術人工物具有道德主體地位,人工物與人一樣成為道德主體。技術不能簡單地被看成是人與世界中介的工具,人工物在人與世界的關系中發揮著主動性作用。技術的調節具有道德維度,技術物是道德承載者。技術人工物等技術裝置也顯示出道德意蘊,應該把客體的道德維度以及客體對主體道德的調節都納入道德范疇。阿特胡斯( Hans Achterhuis)主張“將裝置道德化”,比如,驗票閘門規范逃票行為,人工物的行為影響人類行為主體的道德自主性,可以看作是道德主體。人工物不是道德中立的,它們可以引導人類的道德行為以及影響人類的道德結果,技術人工物可以通過使人類行為合乎道德來促進或加強道德。例如,如果一輛汽車在駕駛員不系安全帶的情況下發出警告,它就會觸發駕駛員的“系安全帶”這一個道德行為。在這個意義上來講,技術人工物具有道德主體地位。
3.道德主體從人工物到智能人工物的轉變。機器是否具有道德主體地位涉及到機器與人的區別問題,2006年約翰遜( Deborah G.Johnson)在《計算機系統:道德實體非道德主體》〔2〕一文中圍繞意向性展開對于道德主體的討論。意向性是人區別于機器的根本特征之一,即使機器與人具有同樣的行為,但機器不具有意向性,人具有意向性。如果智能機器不具有意向性,那么人工系統能否成為道德主體呢? 1978 年,斯洛曼( Aaron Sloman)在《哲學中的計算機革命———哲學、科學與心靈模式》〔3〕一書中論述了“未來機器人能夠思考和具有感知力”的可能性場景,因此,應該把機器納入道德主體的范疇,關注機器的倫理地位。丹尼爾森( Pe-ter Denielson) 在其著作《人工道德:虛擬游戲的道德機器人》〔4〕和霍爾(Josh Storrs hall) 在其著作《超越AI:讓機器產生良知》〔5〕都承認智能機器具有道德主體地位,關注設計道德機器。科林·艾倫( ColinAllen)、瓦納( Gary Varner)與澤欣爾( Jason Zinser)在文章《未來的人工道德主體原型》〔6〕引入“人工道德主體( Artificial Moral agents,簡稱 AMAs)”這個術語,直接承認了技術人工物的道德主體地位。機器與人對比是獨立的道德主體,機器能夠自我推理與自我決策,能夠觸犯人類的利益,就如同一個人可以觸犯到另外一個人利益一樣。因此,可以把機器作為道德主體來看待。人工智能專家福斯特( Heinz von Foerster)認為現有的機器人不僅僅是倫理規則的被動中轉者,還在現有道德生態中與其他施事者互動,應該把智能機器作為道德主體來規范。智能機器這種高度進化的技術人工物具有自主行為和智能信息處理能力的,可以稱為之道德智能主體。按照這種觀點,道德主體的類別除了人類之外,還包括自主機器人和軟件主體。
縱觀學者對于道德主體的研究,經歷了從具有自由意志的人類到生命體、然后到不具有生命體征的人工物最后到智能人工物的研究范疇的轉變過程。
二、智能機器的道德主體標準分析
按照博施特羅姆( Nick Bostrom) 和尤德科夫斯基( Eliezer Yudkowsky) 的觀點:“制造會思考的機器的可能性可能引發一系列的倫理問題,這些問題既與確保機器不傷害人類有關,也與其他道德上關聯的存在者有關,也與機器本身的道德地位有關。〔7〕”機器是不是具有道德主體地位,這涉及到對于道德主體標準的界定。
瓦拉赫( Wendell Wallach)與科林·艾倫在《道德機器:如何讓機器人明辨是非》〔8〕一書中專門花一章的筆墨討論機器的道德主體地位問題,他們認為應該對道德主體進行不同層次的劃分,他們提出三種不同類型的道德主體:操作性道德( operational morality)、功能性道德( functional morality)與完全道德主體( full moral agency)。所謂操作性道德指的是工程師意識到自身的價值觀對于設計的影響以及他們對他人價值的敏感度。就像裝有防止兒童使用的安全設置的槍支,這種機器雖然缺乏自主性與敏感性,但在設計中包含了美國國家專業工程師學會( National Society of Professional Engineers,簡稱NSPE) 道德準則以及其他的行業規范所包含的價值理念。功能性道德指的是能夠評估自身行為的道德意義的智能系統,這種機器是具有倫理敏感性的機器。完全道德主體指的是具有自主決策系統及其情感交互能力的機器系統。
在笛卡爾看來,機器智能的想法在形而上學上是荒謬的,因為心靈與身體是不同的物質,機器是實物,是人類身體的延伸,在空間與時間上有廣延性,心靈則是有意識的精神原子。具有實物的機器不能具有心靈的智能特征。按照人工智能先驅鈕厄爾( Allen Newell)與西蒙( Herbert Simon)的觀點,計算機程序是一系列的形式化符號,人工智能的符號進路趨向于把機器學習當成是對一套預先確定的概念重新組合的過程,除非工程師有意去設計系統,否則,計算機智能就是建立在一個沒有欲望、動機與目標的邏輯平臺上,不可能具有操作性道德和功能性道德,更不可能具有完全的道德主體地位,這種觀點遭到機器倫理學家的反對。例如,阿薩羅( Peter Asaro) 在智能機器倫理中提到三點:“首先,如何設計機器人的行為倫理;其次,人類如何在人工智能倫理中承擔責任;再次,從理論上講,機器人能成為完全的道德主體嗎?”〔9〕阿薩羅的第三點涉及到對于機器的道德主體地位的思考。如果技術人工物想成為道德主體,需要滿足以下兩個條件:首先,技術人工物必須具有道德身份;第二,技術人工物具有道德判斷,具有道德選擇、行為以及承擔責任的能力。按照阿薩羅的觀點,理性人具有道德主體地位,人工物只是具有道德調節作用,還不具有完全的道德主體地位。泰勒( Paul Tailor)認為道德主體的必備條件要滿足以下五點:“第一,判斷道德上正確或錯誤的能力;第二,權衡贊成和反對某些選擇的道德理據的能力;第三,依據這種權衡的結果做出決定的能力;第四,擁有實現這些決定所需的意志和能力;第五,為自己那些未能履行義務的行為做出解釋的能力等等。”〔10〕按照泰勒對于道德主體的界定,機器不具有道德主體地位。塞爾( John Searle)設計著名的“中文屋( Chinese Room)”思想實驗,顯示計算機可以在沒有理解與智能的情況下通過“圖靈測試”。荷蘭特溫特理工大學的布瑞( Philip Brey)提出“準道德主體( quasi - moral a-gents)”概念,他認為智能機器是準道德主體,作為道德主體應該符合以下三個特征:“有能力根據對與錯進行推理、判斷和行動的生物;對自己的行為應當遵守道德規范;對自己的行為負責,對自己的后果負責。”〔11〕這三個特征共同構成了道德主體的界定標準。只有理性的人才有能力進行道德推理,只有理性的人才有道德行為,只有理性的人才有道德責任感。不能分辨是非的成年人通常不被認為具有道德主體能力,智能機器可能具有道德決策能力,但大多數智能主體不具備道德思考的能力,因此,智能機器只能算“準道德主體”,不具有完全道德主體地位。塞拉斯( John Sullins)提出人工道德主體的必要條件是機器具有自主性、意向性與責任。如果機器具有人類一樣的自主性、意向性,并且能夠像人類一樣承擔責任,就具有道德主體地位。
從上述道德主體的界定標準來看,只有具有理性思維決策能力、能夠獨立的承擔責任的理性主體才具有道德主體地位,而現在人工智能的發展只處于弱人工智能階段,人類還不能設計出具有人類情感、具有獨立意識、選擇自由以及能夠獨立承擔責任的機器。所以,機器不具有道德主體地位。這種思路是以人是唯一道德主體的思路來分析的,但目前學者對于道德主體的研究已經從人類拓展到動物甚至是技術人工物,對于道德主體應該具有新的界定與發展。
弗洛里迪( Luciano Floridi)與桑德斯( Sanders)直接承認智能機器的道德主體地位,進一步給出了人工道德主體的標準。按照弗洛里迪與桑德斯的觀點人工道德主體應該具有交互性( interactivity)、自主性( autonomy)與適應性( adaptability)的特征。弗洛里迪與桑德斯提出對于所有X,X是一個道德主體,當且僅當X具有以下內容屬性:“第一,X及其環境能夠相互作用(交互性)屬性;第二,X能夠在沒有與外部世界交互的刺激的情況下改變其狀態(自主性);第三X能夠改變其轉換規則(屬性)‘適應性’;第四,X能夠起作用,例如道德上對世界的重大影響。”〔12〕機器如果在沒有刺激的情況下具有改變狀態的能力、具有改變“轉換規則”的能力,就可能具有道德主體地位。按照這種說法,強人工智能機器符合這些條件,因此可以稱之為人工道德主體。弗洛里迪與桑德斯認為道德主體的概念并不一定表現出人類主體的自由意志、精神狀態或責任,機器可能具有道德主體地位。
通過以上分析,關于道德主體的標準是不一致的,關于機器是否具有道德主體地位也有不同意見,考慮到機器具有自主學習能力、可能具有自我意識、自由意志、人類情感與人類智能,因此,必須在智能機器的設計之初嵌入道德,設計者不能袖手旁觀,應該關注機器的道德模型的構建,“賦予機器人倫理原則或者促進機器人解決可能預見的倫理困境,在機器人自主做決定的時候,提高他們的道德考量比重。”〔13〕
三、人工道德主體模型的構建
瓦拉赫與艾倫提出“道德圖靈測試”,關注機器設計中的道德嵌入,他們提出“道德圖靈測試”的兩種進路,即“自上而下進路( top - down approach) ”與“自下而上進路( bottom - up approach) ”,所謂自上而下進路就是把德性論( virtue theory)、義務論(deontological theory)、功利主義( utilitarian theory)、正義論( justice as fairness theory)等倫理學理論的倫理標準、規范與原則嵌入到人工智能體的設計中,在此基礎上,構建人工道德主體模型。阿西莫夫三定律是“自上而下”道德主體模型的模板,“任何討論‘自上而下’式的機器人道德設計不能不談阿西莫夫三定律。”〔14〕“自下而上進路”立足于創造一種環境能夠讓智能機器摸索自我判斷的行為模式,比如,像“電車難題”思想實驗就是根據不同的情境做出不同的道德選擇。“自下而上進路”與“自上而下進路”的道德主體模型構建都堅持道德上“善”的行為標準,不同之處在于“自上而下進路”關注普遍性倫理學理論基礎上的道德構建,而“自下而上進路”獲得道德的方法是把規范化的價值當作機器隱含的內容。
弗洛里迪與桑德斯在承認機器的道德主體地位的基礎上,提出人工道德主體構建的前提是區分道德問題與責任問題。人類能夠避免“責任+道德行為=規定行為”和“沒有責任就沒有道德行為,所以就沒有規定行為”的二分法。沒有責任,只有道德行動的能力也是道德主體,環境與動物也可以具有道德主體地位,智能機器聰明、自主、能夠獨立于人類之外執行與道德相關的行為,因此存在“善的人工智能”與“惡的人工智能”的區別。所以道德主體構建要區分人類、智能機器、動物以及環境,這種道德主體的構建方式稱之為人工智能的“分布式道德( distributed morality)”。
美國計算機學家邁克爾·安德森( Michael An-derson)、哲學家蘇珊·安德森(Susan Anderson)夫婦與克里斯·阿爾曼(Chris Arman)從經典倫理學理論提出道德主體構建模型,他們認為機器倫理不同于計算機倫理,機器倫理關注的是機器對人類用戶及其他機器的行為,因此,必須為機器添加道德維度,為了給機器增加道德維度,需要可操作的道德理論與道德原則,在此基礎上,他們給出兩個道德主體模型:基于邊沁(Bentham)的功利主義的倫理主體模型和基于羅斯(Ross)義務論直覺主義倫理學的倫理主體模型。行為功利主義道德主體模型基于邊沁的道德算術構建比人類規范的模型,把倫理原則編程為算術,讓機器像人一樣遵循行為功利主義理論。直覺主義者羅斯滿足于將決策權交給決策者的直覺,但羅斯的理論強調表面責任,他認為沒有義務是絕對的,也沒有給出義務的明確等級,因此,在羅斯的理論下,如何做出道德決策是不清楚的。安德森夫婦與阿爾曼立足于為機器倫理奠定理論基礎,他們基于行動的道德理論開發計算機系統,他們結合行為功利主義與義務論直覺主義的理論構建機器學習決策程序,他們的計算機模型克服了羅斯模型的不確定性,使用一種學習算法來調整對責任的判斷,既考慮了表面責任,也考慮了過去對涉及這些責任的類似或不相似案例的直覺。
為了構建人工智能的道德主體模型,哲學家與倫理學家積極嘗試,致力于在機器中嵌入人類“善”的道德。不同于悲觀主義者認為人工智能將不可避免地制造出擁有巨大力量、行為不道德的機器人的觀點。樂觀主義者堅持用倫理學方法來排除惡意機器人的產生以及發揮作用。例如,鮑爾斯( Thomas Powers)在《康德機器的前景》〔15〕中意欲制造出康德式機器( Kantian machine)確保機器人行為符合道德規范;阿寇達斯( Konstantine Arkoudas)和布林斯喬德( Selmer Bringsjord)在《機械化道義邏輯向倫理機器人邁進〔16〕中論證了道義邏輯應用于制造道德機器的可能性;格勞( Christopher Grau)在論文《“機器人”中沒有“我”:機器人功利主義者和功利主義機器人》〔17〕中討論了功利主義模式下的機器人,格勞運用邏輯學理論或者倫理學理論在人工智能的設計之初嵌入人類道德。“理性機器嵌入了道德元素,如程序規則的行為,可能構成人工道德主體所需的理性。”〔18〕智能機器設計者應該在設計之初保持設計理性,對所設計的智能機器可能存在的倫理問題提前預判與評估,雖然有的學者反對智能機器具有意向性或者具有道德主體地位但均未否認技術物具有道德調節作用,也不否認技術可以通過設計改變人類的道德行為。
總之,智能機器具有不確定性,不管智能機器是否具有人類的道德主體地位,都應該對人工智能可能帶來的危害做出防范,人類在智能機器設計之初把“善”的理念嵌入到人工智能中,使得人工智能操作系統不僅要遵守法律,還要遵守社會的道德規范,減少智能機器危害人類的可能性,發揮其對人類進步以及社會發展的作用。