精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
巨頭紛紛布局,AI是否即將威脅人類生存?

【AI世代編者按】《麻省理工科技評論》近期刊登了艾倫人工智能研究所CEO、華盛頓大學計算機科學教授奧林·艾奇奧尼(Oren Etzioni)的文章,分析了超級人工智能出現(xiàn)的可能性。艾奇奧尼的研究結論是,超級智能在可預見的未來還不會出現(xiàn)。

《斯坦福大學:2030年的人工智能與生活》最近的一份報告也探討過該話題,關注“AI世代”微信號(tencentAI),回復“斯坦福”,可獲取報告下載鏈接。

《麻省理工科技評論》中發(fā)表的文章與報告觀點基本類似,以下為文章全文:

如果你了解過關于人工智能的各種觀點,那么可能會非常擔心“超級智能”,或者說“殺手人工智能”的出現(xiàn)。近期英國《衛(wèi)報》警告稱,“我們就像是在玩炸彈的小孩”,《新聞周刊》則指出“人工智能正在到來,有可能徹底消滅我們”。

在伊隆·馬斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)等人觀點的支撐下,許多媒體都有過這樣的報道。實際上,這種觀點來自一個人的研究成果:英國教授尼克·博斯特羅姆(Nick Bostrom),哲學著作《超級智能:道路、危險和策略》的作者。

博斯特羅姆是牛津大學哲學家,而對風險的量化評估則是保險精算學的領域。他或許被認為是全球首位“精算哲學家”。考慮到哲學是一種概念論證學科,而風險評估則是由數(shù)據(jù)驅(qū)動的統(tǒng)計學工作,因此這樣的頭銜顯得很矛盾。

那么,數(shù)據(jù)告訴我們什么?2011年,作為希臘人工智能協(xié)會的成員,博斯特羅姆參加了在希臘塞薩洛尼基舉辦的“人工智能哲學和理論”大會。當時,他整理了4項調(diào)查的結果,并給出了人腦水平人工智能在不同時間點出現(xiàn)的可能性:

2022年:10%。

2040年:50%。

2075年:90%。

關于人腦水平人工智能的發(fā)展,博斯特羅姆撰寫了一份300頁的哲學論證,而這4項調(diào)查是最主要的數(shù)據(jù)來源。

為了更準確地評估行業(yè)領先研究者的意見,我尋求了美國人工智能協(xié)會(AAAI)會士們的幫助。這些研究員對人工智能的研究做出了重要而持續(xù)的貢獻。

2016年3月初,AAAI幫我發(fā)出了一份匿名調(diào)查問卷,向193名會士提出了以下問題:“在他的書中,尼克·博斯特羅姆將超級智能定義為‘在各個實際領域,包括科學創(chuàng)造力、一般常識和社會技能等方面,比最出色人腦還要更聰明的智能’。你們認為,我們何時將會看到超級智能?”

在隨后的一周多時間里,80名會士做出了回復(回復比例為41%)。他們的回復總結如下:

92.5%的受訪者認為,在可預見的未來超級智能不會出現(xiàn)。這一觀點也得到了許多會士書面內(nèi)容的支持。

即使調(diào)查是匿名的,44名會士仍決定實名回復。這其中包括深度學習先驅(qū)吉奧夫·辛頓(Geoff Hinton)、來自斯坦福大學的圖靈獎獲得者埃德·菲恩鮑姆(Ed Feigenbaum)、領先的機器人專家羅尼·布魯克斯(Rodney Brooks),以及谷歌(微博)的皮特·諾維格(Peter Norvig)。

受訪者也給出了更多看法,摘錄如下:

“可能還需要超過25年時間。更有可能還要幾個世紀。但不可能永遠無法實現(xiàn)。”

“我們正在與人腦數(shù)百萬年的進化展開競爭。我們可以編寫單一目的程序,匹敵人類,有時甚至勝過人類。然而,世界并不是由多個單一問題組成的。”

“尼克·博斯特羅姆是職業(yè)恐慌傳播者。他的研究所扮演的角色就是尋找人類的現(xiàn)存威脅。他在各種地方都能看出威脅來。我傾向于將他稱作人工智能領域的特朗普。”

這種調(diào)查的科學價值有限。問題表述和受訪者的選擇都可能會對結果帶來影響。然而,這也是博斯特羅姆參考的一種數(shù)據(jù)來源。

另一種研究方法是根據(jù)人工智能當前的發(fā)展去推斷未來的趨勢。然而這也很困難,因為我們還無法確定當前人腦水平智能的量化指標。我們已經(jīng)在象棋和圍棋等領域?qū)崿F(xiàn)了超級智能,但正如艾倫研究所的研究顯示,我們的程序在美國8年級科學考試中還無法及格。

關于人工智能我們有很多方面的擔心,無論是對就業(yè)崗位的影響,還是自動化武器系統(tǒng),甚至超級智能的潛在風險。然而,當前的數(shù)據(jù)并沒有表明,超級智能將在可預見的未來誕生。與此同時,悲觀預測通常沒有看到人工智能給人類帶來的幫助,例如預防醫(yī)療失誤和減少汽車事故。

此外,人類未來有可能與人工智能系統(tǒng)合作,開發(fā)出共生的超級智能。這將與博斯特羅姆設想的有害的超級智能存在很大不同。(編譯/李瑋)

推薦:關注“AI世代”微信號(tencentAI),回復“斯坦福”,可獲取《斯坦福大學:2030年的人工智能與生活》報告下載鏈接。


本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能“末日博士”:人類該如何避免給AI下跪
今天的孩子或已活不到成年!專家稱AI崛起,每個人都會死去
“終結者”AI離我們還有多遠?
AI人工智能也許是人類的最后一項發(fā)明。
新型AI和人類一樣需要“睡覺”
AI之路:從不會說話的小傻瓜到超越愛因斯坦的存在
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 明溪县| 阳信县| 凤翔县| 乐亭县| 海南省| 股票| 台安县| 九龙县| 昆山市| 米脂县| 鄄城县| 武功县| 阿图什市| 民和| 南丹县| 莫力| 全南县| 文山县| 临猗县| 扶沟县| 留坝县| 和顺县| 武义县| 潮安县| 南木林县| 五原县| 新昌县| 宝丰县| 宁陕县| 宜兰市| 临漳县| 南和县| 民丰县| 平乡县| 互助| 永昌县| 阿克苏市| 景谷| 松江区| 余江县| 奉新县|