“
”
段偉文(中國社會科學院哲學所研究員)
所謂人機伴生,要強調的是在人工智能和機器人的發展進程中,一直通過人與機器的協同而演化。如果認識不到這一點,就很容易忽視人類智能與機器智能的現實關系,脫離由兩者構成的智能生態談論奇點和強人工智能。這就涉及哲學研究,不僅僅是提供答案或者解決方案,還要對問題本身進行分析和重構,讓人們能夠從更好地體現實際的視角看到問題的本質。
每個人都想成為解決問題的高手,各個學科提供了各自的視角,而哲學總在試圖告訴人們,還可以用另外一種方式來面對問題。這就是哲學的思考,不斷地變換角度,使得從其他角度不顯見的現實得以呈現。
01
作為文化創新的機器人文化
首先,機器人、人工智能不僅是技術創新,其產生與發展也伴隨著文化創新。尤其是機器人與機器人文化,一直呈現出共生互動關系。機器人起初是科幻作品中想象的機器,其中就已經投射了對人的價值以及人造生命的風險的反思。
1920年,捷克作家恰佩克(Karel ?apek,1890-1938)首先在科幻劇《羅素姆萬能機器人》(Rossum’s Universal Robots(R.U.R))中將幻想的人造人稱為機器人(Roboti/Robots),意思是勞工或苦力。劇中的機器人起初似乎樂意為人類工作,后來卻反叛并導致人類滅絕。在一戰由機械和化學武器造成的殺戮帶來震驚的余緒中,恰佩克希望借此抗議現代化所帶來的去人性化和對人的生命價值的漠視。此外,他也受到瑪麗·雪萊的長篇小說《弗蘭肯斯坦》的影響,表達了對人類創造生命的狂妄之舉可能造成的惡果的疑慮。
從某種程度上講,這種懼怕技術和機器人的技術文化與機器人文化決定了西方機器人文化的基調,也成為機器人文化反思與創新的出發點。此后,比較有代表性的文化創新者有阿西莫夫的機器人定律和日本的機器人文化。20世紀30—40年代,阿西莫夫著手創作科幻小說時,面對各種機器人故事中過于人性化的“威脅人類的機器人”和“引人同情的機器人”,他看到了另一種可能——由工程師制造的內設安全機制并用于執行特定工作的機器人產品,它們既不會威脅人類,亦無從引人同情。
為此,他在《環舞》等小說中提出了機器人三定律,為理想的機器人設定了一套假想的可通過機器執行的道德體系,讓人們看到機器人是可控的。這就從文化層面大大消除了人們對機器人的恐懼,大大鼓舞了早期機器人的發展。正是通過阿西莫夫的康德式的機器人倫理創構,形成了一種可以平衡 “機器人畏懼”的正面的機器人文化。
再看對機器人充滿信任和好感的日本機器人文化,既沿襲了其神道教與喜愛“機關人偶”的傳統,也體現了日本發展有別于西方的機器人文化的意圖。眾所周知,20世紀70年代以來,日本的機器人文化可謂獨樹一幟。而早在20世紀20年代,《羅素姆萬能機器人》日文版問世后,旋即在日本引起廣泛關注。
當時有一位名叫西村真琴(1883—1956)的生物學家和哲學家不滿西方作品中作為勞動者的實用機器人形象,認為人不應與人造人對立,主張作為自然之子的人類應該將機器人視如己出,與其攜手共進以實現萬物平等、和諧共生。
基于這一理念,他于1928年制造了一種他認為理想的機器人“學天則”(學習自然法則之意),后在京都、廣島、東京等地巡回展出。“學天則”是一個高、寬均3米多的機器人,它超越了西洋機器人強迫勞動的狀態,而被設定為與人類平等的“類人”。當然,西村倡導這一東洋機器人文化的初衷,與當時日本想在文化上與西方對立不無關聯,其中夾雜著軍國主義和民族主義。
由機器人文化及其創新可見,科技和人文之間存在著一種內生關系:科學追求的是有意義的真理,技術旨在解決有價值的問題,知識的生產和機器的部署,都是由人的信念、欲望和意圖驅動的,是為人服務的。而科技時代的人文問題的關鍵恰在于其中呈現出的能動性:科技追尋的是誰的意義和價值,又受誰的信念、欲望和意圖驅使,具體為誰服務?比方說,平臺根據消費者的數據畫像進行各種推送,但這符合消費者的意愿嗎?如果這會引導消費者的行為,其邊界何在?
02
人類智能與機器智能的協同
談到人工智能或機器人,往往會將其作為一種獨立存在的主體來看待,但實際上它們目前還只是數據驅動的智能體(Agents,又稱智能代理等)。它自身有一套規則,然后通過環境數據或其他輸入數據的獲取和處理進行計算和學習,獲得認知結果并做出反應。我們跟智能機器交互的時候,要認識到它們是按照機器的方式來思考的,只能夠讀懂數據。如在進行人臉識別時,機器識別的是視頻像素之類的數據。而人自身在此過程中也成為賽博物理空間(CPS)中和網絡數字平臺上的可識別和交互的智能體。
目前,這些數據驅動的智能體并不具有意識、自我意識和自由意志,更談不上情感、情緒和同理心,它們在道德行為中遠不像人那樣是完全的道德主體,不可能單獨為其行為后果承擔責任。因此,針對自動駕駛、智能音箱和各種機器人應用中的倫理問題,不能簡單地說這是程序、算法或自動機器的錯,應由它們負責,而只能在人和智能機器構成的行動者網絡中找到背后的設計者、制造者、部署者和操作者,向相關人類主體和機構追責。
更進一步來講,固然可以從拉圖爾的行動者網絡理論出發,探討人類行動者與作為非人類行動者的智能機器的建構與形塑,但也必須看到,在智能機器的使用中人類智能與機器智能的協同。后者恰恰是容易被忽視的智能機器的具體性——這種忽視使得智能機器與人的關系被簡化為抽象的人工物與人的關系,而人工智能與機器人倫理的探討不能脫離人與智能機器在具體場景中的關聯。
一方面,要對人類與智能機器的交互環境即網絡數字平臺的運行模式有所認識。
在現實世界中有大量的機器人,包括陪伴機器人、聊天機器人、戰爭機器人、賽博格(如外骨骼裝置)等,人和這些數據驅動的智能體越來越多地被聚合在網絡數字平臺上。因此,談到數字技術和人工智能帶來的隱私泄露,或Face book會不會操縱選舉,不應該只是假想個人通信內容會不會被偷看,平臺如何有選擇地發布信息,而應關注元數據如何被分析、社交媒體會如何短時間和大面積地影響人的情緒等具體問題。例如,在平臺導流的情況 下,一兩分鐘的視頻評論,會產生幾百萬的流量,這種影響力及其反噬的力量無疑不容小覷。
另一方面,應看到當前很多機器智能的應用是通過人類智能的眾包與之協同才得以實現的,這就是人們常說的“有多少人工,就有多少智能”。
在各種人工智能的應用場景中,包括網約車、外賣平臺、智能音箱、古文字識別、機器翻譯等,都伴隨著不斷學習人類的群體智能而提升機器智能的過程,這實質上是人機伴生的社會系統在調試中運行的過程。比方說,上下班高峰時候,為何滴滴司機要接市中心擁堵路段的訂單?因為那樣他就能夠得到更多的獎勵分數。現在的導航軟件為什么越來越好用?因為大家都在用。
但同時不難看到,導航的使用改變了人們出行認路的方式,即從以往的人類經驗學習模式轉向對導航指令的接受與糾錯模式,從而通過反饋和遞歸實現了駕駛等行進活動的人機協同。如果不加反省地依賴導航,人實際上會削弱甚至喪失通過直接經驗學習的能力,這是不是科技時代人們必須付出的代價?這個問題涉及每個人,要從科技與人類未來的角度加以審視,從而促進廣泛深入的社會討論。
當前,認識到人工智能通過人機協同而進化具有重要的現實意義:不能只看到機器智能如何先進和加速迭代,而應該看到人類智能在整體上依然高于機器智能,看到人類智能在此過程中一直發揮著不可替代的隱形作用。
03
面向泛智能體社會的倫理考量
近年來,學界對人工智能倫理展開了廣泛的討論,從算法歧視、自動駕駛到負責任的人工智能、可解釋的人工智能和可信的人工智能,等等。其中,哲學界討論得最熱的問題包括:人工智能和機器人能不能成為道德主體?能否通過倫理設計使人工智能和機器人具有某種機器道德或算法倫理,甚至成為某種道德機器?但對于這些哲學與倫理學討論的價值,我保持一定的懷疑態度。比方說,所謂“電車難題”及其自動駕駛版,會不會始終只是一種哲學游戲,除了發表論文,對具體的自動駕駛到底有多大的實際意義?
機器人能不能成為道德主體,這涉及機器人的權利、責任等道德地位。對這一問題,哲學與倫理學一般會訴諸本質論的討論,即機器人所具備的本質是否使其應該擁有道德地位。有人認為,機器人只是工具,就像汽車和電視機一樣,談不上什么本質,也不具備道德地位。但也有人指出,它不僅僅是工具,還可能具有與人類類似的主體性乃至道德地位。但要在哲學和倫理學上對本質或實質進行辨析和論述存在諸多困難。
一方面,相關論述會運用譜系學的方法展開探討。如談到權利,就會追溯人的權利的發展過程。比方說,奧德修斯從特洛伊戰爭中歸來后處死了十幾個女奴,那是因為奴隸在那個時候不是具備道德和法律權利的主體。接著,會運用與論證動物權利、大自然權利類似的思路,類推出當人工智能與機器人的智能感知達到某種程度時,也將被賦予權利、成為道德主體,云云。顯然,這種類推的論證模式的說服力非常有限。
另一方面,相關論述會直接從機器智能的本質探討賦予其道德地位的可能。比方說,若能制造出某種能夠感受到痛苦的“最大似人自動機”(MHA),就應該視其為道德主體。但這種討論往往會陷入尷尬境地:如果能夠做出這種機器人,這種建造本身是不是就違背了被造機器人的知情同意權。概言之,哲學和倫理學層面的這些本質論的探討,應該防止陷入自說自話與自我詰難的話語游戲循環。
為了克服工具論、本質論等實體論論述的局限,應該面向泛智能體社會的現實,從實際的關系論角度思考人與機器的道德關系。以中國科技大學機器人專家陳小平帶領的團隊制作的佳佳機器人為例,盡管很多人認為目前做不出具有內在情感認知和真實情感交互能力的機器人,但在陳小平看來,這項工作是有價值的。
從人機情感關系的角度出發,人們會把情感投射到機器人上。在與機器人聊天和互動的過程中,不論是長時間的互動, 還是聊著聊著“把天聊死”,都會形成某種情感關系。例如,現在有一種圓形的掃地機器人,送去維修的時候,有的主婦會跟工程師說,你不要隨便給我換一個新的,你要把我們家的“保羅”給我帶回來。其中就有一種泛主體關系,有著道德關系和情感的投射。
實際上,在阿西莫夫的機器人小說中,并沒有抽象地談論機器人定律,而是通過各種故事,構想其應用于人機關系遇到的沖突與可能的出路。例如,在《鏡像》中,一位年長的科學家和一位年輕的科學家同坐一條船,他們各自有一個陪伴機器人,其中一人談到一個數學定理的證明,最后兩人就此內容發表了同樣的論文。在對這一公案進行問詢時,兩個機器人的證詞也是一致的:我的主人沒有問題,是對方主人抄襲。小說的名字所反映的就是這種人機關系的對稱性,而打破這種對稱性就需要道德律之外解決沖突的實踐智慧。
面對正在來臨的泛智能體社會,需要更進一步的倫理設計與哲學考量。在此主要談三個方面。
其一,如何設計和構建一種分布式的道德機制。在自動智能武器的討論中,最常見的觀點是要讓人處在自動決策的閉環之中。但問題是,在戰斗狀況下,一個人監控幾十架無人機實際上是不現實的,如何設計一種對人和機器進行全局監控和決策的超級監控者?還有在自動駕駛與人類駕駛并行的情況下,如何分配責任?
對此,荷蘭的兩個法庭判例具有一定的啟發性。一個判例是,法律規定只能有兩輛自行車同行,第三輛車加入而造成事故時負主責,但前面兩輛車也要承擔一定責任。類似地,法律規定港口航道只能兩艘船并行,第三艘船闖入并發生事故時則需要負全責。對比兩個判例可見,在泛智能體社會中的分布式道德機制會同時考慮造成后果的原因以及相關智能體的能力。因此,不論機器倫理還是機器道德,不應停留在自上而下或自下而上的實體論視角,還需從泛智能體社會的智能體之間的關系展開考察。
其二,要從智能體的角度反思人類主體性所遇到的挑戰。如今,我們日益置身人類智 能與機器智能所構成的智能生態系統之中,人類主體正在轉變為可以被機器所認知的智能體。面對各種智能監測,從AI教室到通過人臉識別才能進高鐵站,“我”已經不再是內在的第一人稱的我,而更多的是機器能夠理解與接納的第三人稱的“它”,必須在頭腦里有這種意識才能實現人機協同。
比方說,進高鐵站的時候,我一定要把口罩拉下來,機器才能夠識別出來是不是“我”,而且我還不能特別著急地沖過去,要等機器反應過來,才不會撞到閘機。在這個看似自然的過程中,人類主體不能不做一個外在的行動者。什么叫外在的行動者?就是說在泛智能體時代,人與機器的協同建立在對智能體的數據刻畫之上,作為智能體的人只有成為一個可觀察的數據才能納入智能系統。
換言之,如果人類不加反思地適應這種主體性的外在化,是否意味著這將是一個人變得越來越像機器的過程?假設對導航能力進行圖靈測試,認路是人的一種基本智能,50年前,我們要檢測機器能否像人一樣會認路。而現在隨著很多人依賴智能導航而喪失認路能力,是不是意味著機器的認路能力較差才更接近人類智能?如果把人類智能和機器智能孤立起來進行對比,就會看到所謂圖靈邊界實際上是在變動的。但從人機協同的角度看,這種變動是可以解釋和加以調節的。總之,對于由此帶來的主體性挑戰的哲學追問,無疑是泛智能體社會倫理設計的基礎。
其三,談談道德機器,即用智能機器來提升我們的道德水準。比方說,在上海外灘過馬路時,已經有機器提醒你現在是紅燈,甚至有的地方會在大屏幕上顯示違章者的姓名和身份證號,這就是道德機器的雛形。如果要將機器人設計成道德機器,不僅需要道德語言交互能力,或場景與事件觸發的對應提示機制,還要具有實際環境中的道德判斷力和預見力。當然,這種道德機器不僅僅是強制性或命令式的,而更多的是行為心理層面的助推或說服。
對此可以提出設計標準,如能減緩人的破壞傾向,并且給人以安慰;為人提供必要的心理服務,為人所接受,令人滿意,使人的行為得當等。甚至將來,小孩可以在各種道德機器人或教育機器人的陪伴下成長。但問題是,道德機器究竟根據什么標準塑造我們?其實,人類本身對于什么是善的,什么是好的,什么是好的教育方式,什么是好的品行等,都缺乏一個固定的衡量標準。
我們的將來會是什么樣的未來?答案應該是實現人和機器的相互協同與兼容。從機器的角度講,將來的機器會是利他的機器嗎?它會是一種慈悲的機器嗎?會與人類之間產生一種情感依賴嗎?阿西莫夫《機器人短篇小說集》的最后一篇叫《雙百人》,據此改編的電影名叫《機器人管家》,其中的機器人主人公因為活得太久,目睹過他經歷的人紛紛故去,最后寧愿不做機器人而變成了終會逝去的人。
所以,面對智能化的未來,最重要的問題是必須重新思考和構建人性。最近,人工智能學家斯圖爾特·羅素(Stuart Russell)寫了本新書《AI新生》,其中談到未來的人工智能應該純粹利他、更加謙卑、學會學習和預測人類的偏好,等等。在我看來,最終還是要立足于人機關系的維度,構建我們想要的合乎倫理的未來——人類而不是機器人擁有未來的未來。
(本文根據2020年7月南京信息工程大學主辦的“人工智能:理論闡釋與實踐觀照”專題研討會發言整理成文,發表于《閱江學刊》2021年第4期。)