精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
人工智能安全的雙重規制體系

  濫觴于20世紀初的人工智能因大數據、云計算的技術突破而重新煥發生機,技術革命的演進為人類打開步入智能融合的數字社會的大門,人類的行為模式和思維活動隨著各領域技術的延展而蛻變。自勞倫斯·萊斯格(Lawrence Lessig)教授的《代碼2.0》出版以降,新技術與規范之間在本質論層面產生了緊張關系。萊斯格教授將代碼與法律的互動關系喻為東西海岸之爭,用以說明究竟是技術塑造了法律規范,還是法律形塑了技術規范。他的核心觀點直指要害,任何技術的規制路徑都應當包含市場、架構、社會規范和法律四個維度,人工智能所特有的國家、社會、商業、倫理縱橫交錯的復雜利益關系導致人工智能的安全問題不斷復雜化,從萊斯格教授處抽絲剝繭式覓得人工智能安全規制的完美答案已成奢望。

內外雙重視角下的安全秩序

圖靈意義上的人工智能是通過人類知識驅動推理的機械化運作方案,而隨著云計算技術不斷的衍化、迭代,現代意義上的人工智能由算法和數據耦合所構成,呈現出數據驅動計算運作機理。以機器學習能力為界,有學者將人工智能區分為“符號主義”的老派人工智能和“聯結主義”的新人工智能;也有按人工智能的聰慧等級來劃分,將人工智能分為弱人工智能與強人工智能(當前強弱區分說已經成為主流觀點)。誠然,無論何種分類標準,都對人工智能的社會作用不謀而合,即人工智能正在顛覆人類既有的社會思維習慣和法律規制方案。此外,從國家競爭的角度來看,人工智能也是各國軍備競賽、爭奪霸權的“隱形”戰場,甚至有不少國家為了謀取優勢地位而選擇性忽略對人工智能脫韁所帶來的倫理問題。人工智能所獨有的政治性、社會性以及錯綜復雜的利益結構,需要從治理層面重視人工智能安全問題。一方面要從內部技術視角關注算法安全和數據安全,同時也要從外部視角關注倫理安全和國家安全。

人工智能的安全秩序包含算法安全、數據安全、國家安全、倫理秩序安全四個維度,傳統規制人工智能觀念正經歷著迭代、升級,數字正義(digital justice)作為技術領域的全新秩序價值正發展成為普遍共識。數字正義并非僅關乎在線糾紛的解決,它的核心在于厘清科學技術產生各種類型糾紛的本源,以期利用法律、技術共同預防和解決糾紛的產生。作為人工智能安全價值基礎的數字正義理論包含數據正義(data justice)、算法正義(algorithm justice)、國家安全、人類安全四層次的內涵。當前人們多將目光聚焦在數據正義(data justice)領域,歐盟的《統一數據保護條例》、中國納入立法規劃的《個人信息保護法》都是在信息自決的理念基礎上對數據流動安全、數據使用公平問題所作的法律秩序安排。

算法規制與算法正義

囿于當今的技術條件和科技水平,我們可以預見,人類社會仍將長期處于弱人工智能時代,當前算法歧視、算法暴政已經直接威脅到人類科技與經濟民主。有鑒于此,算法正義是這個時代需要關切的重點及難點,由人工智能安全的內部視角來觀察人工智能規制,會發現其核心即是對算法設計本身的規制,弗蘭克·帕斯奎爾(Frank Pasquale)認為一切算法的本質是黑箱,這一觀點在技術層面的隱喻為:機器學習神經網絡中存在隱層邏輯使得設計者無法對機器學習的優化結果做出合理的解釋。但從算法的外部效應來看,黑箱具有相對性,所謂“算法黑箱”僅指對用戶的不透明,對設計者來說算法是一種公開且透明的技術實踐方案。因此,無論是要求算法設計者強制披露、算法設計者完成設計時自我驗證以確保算法的有效性,還是充分尊重用戶個人選擇,賦予用戶事后的算法解釋權,以化解合同雙方的力量不對等狀態,限制“算法權力”,其重點都在于人工智能領域安全維護需要對作為溝通工具的算法進行規制。

真正擁有自我意識及感覺的“強人工智能”并不完全是“水中月,鏡中花”。牛津大學人類未來研究所的Katja Grace及其研究小組在《人工智能何時超越人類》中指出,裹挾了過多周邊技術,如區塊鏈、量子計算、納米科技、基因工程等技術的人工智能極有可能發展為互聯網時代的“利維坦”。2017年IEEE發布《倫理一致的設計:將人類福祉與人工智能和自主系統優先考慮的愿景》;同年2月,歐洲議會通過了針對人工智能科研人員和研究倫理委員會(REC)的一系列必須遵守的倫理準則——《人工智能倫理準則》(機器人憲章)。類似的規定都要求智能機器人的開發需要遵循人類利益的最大化原則,且機器人不得傷害人類。

關注人類整體利益

人工智能和基因科技使得作為自然人的主體性及其終極基礎的理性與自由意志在未來智能社會中并非絕對具有正當性,人類的主體性正在被技術消解,在強人工智能來臨之前,各國作為人工智能安全問題的命運共同體,應該達成相應的倫理共識——開發人工智能以重視人的安全為中心。人工智能發展本身涉及行為人之間復雜的經濟政治關系,規制方案的設計應當盡可能提前,并遵循共同的理念,以過程化治理取代結果治理,易言之,人工智能的治理更多地應當呈現出一種行為規制的特點。但是,這樣的過程性規制最終仍需要依附于人工智能特殊領域的事業活動來展開。我們應當警惕身披技術發展外衣的濫用行為,如避免人工智能自動化武器的開發與應用、防止人工智能在基因科技領域的濫用等。對國家安全而言,我們應當警惕在西方“超人文化”主導的時代環境下,人工智能的技術鴻溝所導致的被“永久邊緣化”的風險。人工智能的安全有賴于人類命運共同體理念的實踐,關注作為整體的國家利益、技術利益發展的同時,應當關注人類整體的利益。這種與超人思想截然不同的理念將進一步彌合“人工智能的沖突”,創造和諧的人工智能治理秩序。

霍金預言:“人工智能并非人類文明的終結者,真正會終結人類文明的是人類自身。”人工智能安全最終落腳點是人的安全,法律規制只是人工智能與安全秩序通約的一種工具,如何在人工智能技術內在體系與外部規制方案之間尋求內外兼備的平衡狀態,創造和諧的人工智能治理秩序,是眼下必須思索的問題。 

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
周尚君 羅有成|數字正義論:理論內涵與實踐機制
過去一年,全球關于人工智能倫理有了這些思考
章文光、賈茹|人工智能的社會倫理困境:提升效率、輔助與替代決策
龍柯宇|生成式人工智能應用失范的法律規制研究
《人文雜志》|| 劉丹鶴 孫嘉悅:人工智能規制政策制定的風險與治理
漫談《西部世界》中的情、理、法
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 哈尔滨市| 潜山县| 九龙县| 西昌市| 陕西省| 丹阳市| 宣威市| 修武县| 安国市| 丹阳市| 龙里县| 平安县| 邛崃市| 五常市| 崇文区| 新巴尔虎右旗| 东源县| 勃利县| 盘锦市| 武汉市| 乌海市| 自贡市| 阿拉善盟| 沂水县| 曲靖市| 泸溪县| 台南县| 澄迈县| 凤城市| 成安县| 安远县| 和龙市| 嘉义县| 牟定县| 莆田市| 额尔古纳市| 锡林浩特市| 河北省| 禹州市| 沾化县| 隆林|