最近,位于德國的一家汽車制造廠里,一臺高度自動化的機器人突然出現了錯誤操作,抓起旁邊的一名安裝工人,摔向了一塊金屬板,造成該工人不幸罹難。消息一出,輿論嘩然:加上不久之前剛剛上映的電影《超能查派》,很多人開始擔心,以后科技進步了,會不會出現特別聰明的機器人,背叛了人類的意志,最終成為《終結者》里那樣主宰世界的機器霸主?另外,如果機器人真的殺人了,誰該為這樣的兇殺承擔責任?
其實啊,這事還真沒那么可怕啦。
在討論之前,我們不妨先來劃定一個范圍,什么樣的東西,才算是機器人呢?
實際上,這個問題并沒有確切的答案,因為隨著科技的發展,科學家們給出的定義被不斷刷新。通常認為,對自己具有一定的控制和感知能力,能夠自主完成一定的動作的機器裝置,就可以算做機器人。
這里所說的“自主”,又有兩層意思:第一種,是按照人類預先給它設定好的程序,按部就班地執行下去,實現人類設計好的功能。這種機器人如今已經非常普遍,大到登月的“玉兔”號探測器,小到家用的掃地機器人,都屬此類。
也就是說,這類機器人要去做什么事情,都是它的制造者說了算的,它只是一個工具,并不擁有真正的自主意志——和原始人手里的石斧并沒有本質差別;區別只在于這種工具比較“聰明”,能夠根據實際工作的情況,更靈活、更精確地實現主人設定的程序,完成更加復雜而精確的行動,就像在坑洼不平的路面,坐汽車肯定比坐牛車舒服。
第二種就有點嚇人了,這種機器人擁有一定的人工智能(AI),能夠自主學習和獨立思考,在人類給它設定的程序之外,實現人類沒有教給它的功能,就像電影里的查派和終結者。這種機器人的行為是不可預測的,就像我們看到一個襁褓中的孩子,也不可能知道他將來會成為怎樣的人,做出怎樣的事情來?
提到機器人“謀殺”人類的問題,第一種機器人顯然不在討論之列,因為正常情況下它們并沒有被設定殺人的程序,哪怕是真的判斷失誤而誤傷人類,那也只能是意外事故;即便是有誰使壞,故意給機器人裝了危險的指令,此刻的機器人依然還是一個工具而已,并沒有自主的意志。
這一類機器人致人死亡的事情,實際并不算罕見,比如本文開頭提到的這起事故。理由也很簡單,任何人類制造出來的東西,都不可能100%地確保不出故障;而越是功能復雜、制造精密的系統,發生故障的概率就越難降低。回想一下,這些年人類發射的無人航天器,從菲萊、玉兔到新視野號,盡管都代表了當時最先進的科學技術,但多多少少都有掉過鏈子。
機器出了故障就有可能對人類造成傷害,人類能做的只能是盡量降低故障率,加強安全防護,卻不能因噎廢食,放棄機器人的運用。全世界范圍內,因為汽車出現故障而致人類死亡的案例每天、每小時甚至每分鐘都在發生,但汽車依舊是人類最青睞的機器;同理,我們也沒有必要對機器人苛求永不犯錯。
盡管從理論上說,第二種機器人完全可能以“自主的決定”去殺害人類,但令人寬慰的是,囿于科技的發展水平,目前世界上還沒有造出一種和人類能力接近的人工智能(AI),所以我們暫時還不用擔心這事。
但是,還有一類介于這兩者之間的機器人,還真的可能會成為人類的殺手,那就所謂的戰爭機器人(killer robot)。
目前大家所熟悉的“掠食者”無人機,本質就是戰爭機器人,但它依然屬于我們說的第一類機器人,導彈要鎖定誰、要不要發射都是由坐在基地里的人類遙控決定的。然而,一些國家已經在研制自動化程度更高的戰斗機器人,允許它們在戰場上自主尋找、選擇目標,再自己決定是否開火。顯然,這類機器人如果出現故障或者誤判,后果會比工廠里的焊接機器人嚴重得多。今年3月,聯合國秘書長潘基文先生曾公開呼吁各國停止此類研究,但似乎收效甚微
可以預見的是,制造機器人的科學技術仍會不斷發展,而人類對于機器人的運用也會越來越廣泛,無論是居家生活、工業生產中都是如此。比如,谷歌公司一直在研究的無人駕駛汽車,或許數年之后就會行駛在馬路上。
因此,如何盡量避免“機器殺人”的危險出現,就是一個很有現實意義的問題了。
對于第一種機器人(也就是目前使用的機器人)而言,除了在設計、調試時更加謹慎之外,最實際的措施就是減少人類和機器人直接接觸的機會。對于有固定工作地點的機器人(比如流水線上的機器臂),可以設置物理隔離并劃定危險區域,禁止無關人員靠近;對于能自主走動的機器人(比如掃地、送外賣的機器人),則可以加裝規避裝置,讓它和人類時刻保持安全距離。此外,給每臺機器人加裝操作簡便的“紅色按鈕”,確保在它出現錯誤動作時,人類能夠一鍵關停。
對于第二種機器人(具有自主思維能力的AI機器人),實際上并沒有確切的預防方法,因為誰也不知道真正的人工智能將會如何思考、如何學習,如何理解人類的情感?一種可能的思路是,按照科幻小說作家阿西莫夫提出的“機器人三定律”來制約人工智能,將“機器人不得傷害人類”、“不能眼見人類處于危險而袖手旁觀”原則貫穿整個開發工作的始終,“從小開始”培養智能機器人對于人類的服從與善意。