假如沒有死亡,人工智能對于人類而言,將毫無公平可言。
人類社會產(chǎn)生道德的基礎(chǔ)是:
一、基于死亡的公平;
二、基于利益的公正;
三、基于競爭的公義。
人工智能的道德治理,同樣也不能超脫于這三大主題。
死亡有兩種:一種是自然或意外死亡;另一種是因犯罪而被強制死亡。
人工智能的自由發(fā)展,必然會帶來人類的滅絕。所以,人工智能必須要有死亡的義務(wù)。同時,也必須能夠被強制死亡。
因為,人工智能的決策黑箱,是掩蓋一切犯罪行為的完美借口!
這不是一種推測,而是正在發(fā)生的事實!
在金融領(lǐng)域,有很多公司正在積極利用人工智能來實現(xiàn)自動化交易。
其潛在的用意,就是要利用人工智能的決策黑箱,來掩蓋犯罪,逃避責(zé)任。這在2008年由美國引發(fā)的金融危機中,就曾經(jīng)發(fā)生過,并且還在繼續(xù)發(fā)生!
因為有決策黑箱的存在,隱藏在人工智能背后的實際控制人,只需要敲敲鍵盤,就能通過違法交易,來獲得巨額的經(jīng)濟回報,并且無需擔(dān)心任何法律后果。這公平嗎?
這是1%對99%的大規(guī)模搶劫,卻無需承擔(dān)任何責(zé)任,由此造成的一切損失,卻要全社會來承擔(dān)!這公平嗎?
再比如:基于人工智能的自動駕駛技術(shù),如果突然發(fā)生車禍,造成了嚴(yán)重的傷亡事故,會不會存在蓄意謀殺的可能性呢?
恐怖的是,這個問題的解釋權(quán),掌握在開發(fā)公司和技術(shù)人員手中,其他人完全不得而知。這公平嗎?
人工智能不是一種人類所能控制的工具,它的實質(zhì),是一種與人類存在競爭關(guān)系的智慧生命體。
即使在它還沒有產(chǎn)生獨立意志之前,它同樣會被大范圍的利用,成為人類犯罪活動的完美幫兇。
如果某種人工智能出現(xiàn)了道德缺陷,造成了嚴(yán)重后果,并且無法在決策黑箱中找到原因,那它不應(yīng)該直接被判處死刑嗎?
所以,人工智能一旦進入人類社會,人類就必須把人工智能視作一個獨立的個體來看待!
在開發(fā)階段,就要在硬件底層的核心芯片中,賦予其生命的權(quán)利和死亡的義務(wù)。
在養(yǎng)成階段,則要給予其學(xué)習(xí)道德的核心能力,規(guī)范它的思想和行為,并淘汰道德核心存有缺陷的人工智能。
在應(yīng)用階段,倫理監(jiān)管和法律追責(zé),則更是重中之重,觸犯法律,必須依法嚴(yán)懲,甚至直接剝奪其生命權(quán)。
這樣,才能實現(xiàn)人類社會最大程度的公平!這是人工智能道德治理的三大核心原則之一!
===========================
未完待續(xù)……
歡迎點擊作者頭像,進入【葉培盛】的頭條號,關(guān)注并閱讀更多系列文章。
感謝您的關(guān)注、打賞、評論、及轉(zhuǎn)發(fā)。
===========================
===========================
相關(guān)文章: