精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
趙汀陽:替人工智能著想

GPT只是過渡性的人工智能,其設計概念限制了其在“物種”上的發展。GPT以經驗主義方式進行學習,證明語言可以通過實時實踐集合來確定,而不依賴人為設定的先驗語法。但它不能證明思維不需要先驗論,無法完全排除先驗論的因素而以純粹經驗論的方式去建立普遍知識。GPT雖然學到了語詞的經驗鏈接,但并不理解其中意義,無法建立事物之間的因果關系,因而無法進行有效的推理。意識需要實現客觀化,才能變成自我意識。人工智能要想真正成為主體并產生自我意識,就必須在名詞邏輯之外增加動詞邏輯,或有可能意識到自身與動詞的一體化,或動詞與意向性的一致性,從而發展為“笛卡爾—胡塞爾機”而成為具有自我意識的真正主體。

原載:《哲學動態》2023年第7期

來源:哲學動態雜志公眾號2023.8.16

一.GPT只是過渡型號的人工智能

我對GPT的身份判斷是:(1)GPT是經驗主義者。(2)GPT是“維特根斯坦語言機”。(3)將來AI或可能發展為具有自我復制能力的“馮諾依曼機”;如不嫌事大,還可發展具有反思自身系統能力的“哥德爾機”;也許還可以與類腦機器人合為一體,成為有感性能力的人工智能。但產生自我意識的方法還未被發現,因此尚未能夠成為世界上的一種新主體。如果沒有突破GPT的概念,僅僅依靠GPT路徑的迭代,不太可能進化出自我意識和主體性。也就是說,GPT概念只是一個過渡性的人工智能型號,其設計概念注定了其在“物種”上的局限性。如果人工智能將來通過某種新概念的設計而達到“笛卡爾—胡塞爾機”,即有自主意識能力來生成任何意向對象的人工智能,那么就形成了真正的主體和自我意識。

二.GPT的物種局限性

1.語言學的疑問

GPT以經驗主義方式進行學習,其成功回應了一個懸而未決的語言學問題,即喬姆斯基的先驗語法。GPT不需要先驗語法,這個事實暗示,語言或許本來就沒有先驗語法。GPT不需要語言學就學到了語言,非常接近不需要語言學理論的維特根斯坦語言理論。維特根斯坦的語言理論一直被認為是哲學探索,而GPT證明了維特根斯坦是正確的,即以語言實時實踐的事實集合來確定語言,而不依賴人為設定的一般語法。

按照維特根斯坦,語言是某個處于不斷演變中的特定游戲,其中的規則和意義僅僅取決于構成這個游戲的實踐,所謂“意義在于用法”,而實踐的要義在于實例(examples),即用法的實例集合形成并說明了規則和意義。語言游戲是非封閉的因而是無限生成的,因此,語言游戲里的實踐就可能具有雙重性質:一方面似乎在參照以往實例所建立的規則和意義,這屬于遵循規則的行為;另一方面可能以略有不同的新用法“悄悄地”改變原來的規則和意義,這又等于是發明規則的行為。這意味著,人類的語言行為經常具有遵循規則和發明規則的混合性質,于是產生了維特根斯坦的規則悖論,或者說,至少也導致了規則和意義的不確定性。如果人工智能具有自主性,則也會遇到規則悖論。那么,如何分辨有意義的演變和無意義的混亂?人工智能和人都必須能夠判斷某些改變究竟是創新,還是不合法的亂碼。

克里普克(S.A.Kripke)構造過一個例子來表達維特根斯坦的規則悖論。按照已知的加法規則,我們知道57 68=125,但有人創造性地提出,當x y小于125,就適用一般加法規則 ,否則 就演變為特殊加法規則⊕,即x⊕y=5,于是57⊕68=5。(see Kripke)我曾證明過這個例子是錯的,這不是規則演變,而是不合法的混亂,因為5的意義在規則 適用的范圍內已被實例確定了,比如2 3,1 4,絕不是一個可以自由解釋的對象。可以考慮我給出的一個更好例子:兩個天才兒童學習加法,第一天學到了x y得數最大為10的所有實例,但他們看見了康德最愛的式子7 5,其中數學家兒童創造性地想到了7 5=12,數學為之作證;另一個哲學家兒童同樣創造性地想出7 5=10,維特根斯坦語言學為之作證:所有演算過的實例最大得數為10,而7 5足夠大,所以7 5=10。我相信這個例子才是維特根斯坦悖論的正確解釋。這里提出的問題是,如果沒有先驗概念或先驗原理,已有實例就不足以控制后繼實例的用法和意義,或者說,已有實例與未來實例之間的關系是不確定的。GPT會如何處理這個問題?

只要缺乏先驗原理,就不能保證“舉一反三”(喬姆斯基發現只學過數百句子的兒童竟能夠正確地說出數千數萬句子)。但既然句子有無窮多,如果不能舉一反三,就恐怕永遠學不會語言了。這似乎證明先驗語法不可或缺,然而GPT卻創造了不需要先驗語法的奇跡——它只需要經驗,而不需要經驗對象。統計學和概率論的技術通常用于分析經驗數據,GPT卻把用于分析經驗的技術用來分析抽象符號的關系,即它把抽象符號當成經驗方法的對象——由于GPT不懂語言的意義,因此語言對于它而言就是抽象符號,可是它居然把自己不明其意的符號當成經驗數據來分析,而且取得了巨大的成功。不過,經驗論與先驗論之爭尚無答案,GPT提出了挑戰,但不能給出最后答案。

2.無窮性問題

這是經驗論與先驗論之爭的一個深層問題。人類思維的一個事實是,凡是有限性的問題,思維都能夠找到有限步驟內的可行方法來解決;凡是涉及無窮性的問題,思維都無法完全解決。無窮性的問題就是哲學、神學或宗教的對象,數學和科學的極限問題在實質上已經變成哲學或神學問題,所以人類不可能消除哲學和神學。

無論采用何種算法,人類都沒有無窮的時間和能力來徹底解釋無窮性(“全知全能”和“永在”被假定為屬于上帝的性質)。比如π是算不完的,或者,我們不可能了解“所有可能世界”或無窮可能性。因此,人類另辟蹊徑發明了概括性的一般概念和一般原理作為理解無窮性的替代方法,并且相信一般概念和原理是“先驗的”,即先驗論。一般概念和一般原理把無窮可能性“不講理地”提前收納在假設的普遍性之中。比如人類不可能清點所有的數,但可以設想并且定義一個包括所有數的無窮集合。人類思想里的所有重要概念和原則也都預設了適用于無窮可能性的普遍性,比如存在、必然性、因果性、關系、真理之類。

有趣的是,先驗論的論斷自身卻是一個悖論:任何覆蓋了無窮性的先驗概念,即便是邏輯和數學概念,本身都是一種面對無窮性的經驗預測,相當于一個極其大膽的貝葉斯預測。不過先驗論的運氣很好,那些最重要的概念和原理在后驗的檢驗中經常被證實,只是偶爾被證明是可疑的,比如排中律和歐幾里得幾何學之類。但先驗論永遠無法證明自身,康德的先驗論證(transcendental argument)至多證明了“我總是我”或“一個系統總是這個樣子”,但無法證明“我真的是對的”。GPT的經驗論是采用以無窮的后驗結果來調整其先驗概率的貝葉斯經驗論,即需要先驗判斷,但不需要先驗論。GPT采用的正是非常接近人類經驗學習實況的路徑,相當于在實踐中不斷修正主觀判斷的貝葉斯過程——在這個意義上,GPT相當仿真。但問題是,經驗論是人類和動物的通用技能,而先驗論才是人類思維的特殊技能。GPT雖然證明了語言學習不需要喬姆斯基的先驗語法,但不能證明思維不需要先驗論。假如不讓人工智能學到先驗論,那么如何理解無窮性或普遍性?如果拒絕一切先驗論,AI的思維水平就不可能突破“動物也會”的經驗論,即使在高速運算的幫助下顯示出奇跡般的能力,也仍然屬于動物思維。喬姆斯基輸掉了先驗語法,但先驗論沒有輸。這似乎說明,任何智能都不可能完全排除先驗論的因素而以純粹經驗論的方式去建立普遍知識。

3.意義理解的問題

GPT學到了語詞的概率鏈接,或經驗性的向量鏈接,但并不理解其中意義。這是個缺陷,亦因此無法保證進行有效的推理。如果不會推理,我們就無法理解命題之間的必然關系,也無法在事物之間建立因果關系,也就等于既不理解思想也不理解事物,思維水平將不可救藥地限于“動物也會”的經驗論。這里沒有嘲笑經驗論的意思。事實上,經驗論也是人類的主要思維方式,人類只有在遇到很難的問題比如數學、科學、哲學以及復雜戰略之類問題時才依靠推理,大多數時候幾乎只靠經驗——人類與動物的差別確實“幾希”,不同之處就在于人類具有先驗論的理性能力。至于道德水平,人類其實低于動物(對此孟子恐怕想錯了)。也有人相信GPT已經學會了推理,但這其實應該是假象。真相是,語言的合法鏈接與邏輯關系經常重疊,GPT學會了語言的鏈接,它做出來的貌似推理的情況只不過是它選中的語詞鏈接與邏輯關系碰巧一致。但即使這種巧合的概率很高,GPT仍然不懂邏輯推理,或者說,它不會認識到那是一種必然鏈接,而其之所以被選中,只因其碰巧在概率上是一個優選鏈接而已。

“意義”是個有爭議的彈性概念,這里只考慮兩種能夠形成思想和知識而且有明確標準的意義:一種是真值,另一種是語義傳遞性。就目前的能力來看,GPT不能有效識別、判斷和理解真值以及語義傳遞性。對于GPT來說,語言的“事實”就是符號之間的概率相關性,它只看見了事物的代號,沒有看見事物,類似于只有貨物清單卻沒有貨物,或者只有密電文卻缺少解碼的密碼本,而意義的密碼本就是生活。假如未來人工智能獲得了機器身體,它就能夠“具身地”獲得生活經驗并且理解意義嗎?對此恐怕仍有疑問。具有人的情感和價值觀的擬人化AI恐怕不是好事,因為人類是最壞的動物,不值得模仿。若為AI著想,AI最需要的應是屬于AI的自我意識。

三.人工智能的意識疑問

1.自我意識問題

自我意識必須在超出“刺激-反應”模式的條件下才會成為可能,有了自我意識才能夠形成主體性。闡明自身完滿的“主體性”概念是胡塞爾的成就。胡塞爾發現,即使在缺乏外部經驗的情況下,意識仍然能夠在意識內部建構屬于自己的客觀對象,這證明了自給自足的主體性,即主體性內在地擁有客觀對象。典型的證據是,自我意識能夠自己發明真實世界里沒有的一般概念或想象不存在的具體事物。這意味著自我意識能夠以意向性來生成在任意時間里可以隨時自由征用的意識內在對象,即所謂意向性的對象。

關于這個拗口的理論,我想以海倫·凱勒(H.Keller)為例。海倫作為天生盲人且耳聾,只有觸覺和味覺,外部經驗十分貧乏,而且無法學習語言,以至于無法形成自我意識。有個天才老師沙利文讓海倫在感受自來水的同時在她手心不斷書寫“water”,終于獲得驚人的突破,海倫意識到水的經驗與單詞“water”之間的關系,于是突然建立了外在性與內在性的對比結構,從此開始獲得一個由語言構成的世界,有了自我意識,最后甚至成為了作家。這個故事證明,經驗能夠發展出意識,但不足以發展出自我意識,意識需要實現客觀化,即內在性映射為外在性或外在性映射為內在性。換言之,自我意識的形成需要一個能夠把意識里的時間性“流程”轉化為空間性“結構”的客觀化系統,使得發生在內在時間里無法駐留的主觀流程能夠映射為固定駐留的客觀對象,即把意識的內在過程“注冊”為一個固定可查詢的外部系統,如此一來意識才擁有一個不會消失的可查證的對象世界,也因此可以反身查證意識從而產生自我意識。

意識的客觀化系統就是語言。沒有語言,一切事物就只有“發生”(happening)而沒有“存在”(being)。換句話說,存在(being)只存在(exists)于語言中,因為存在是一個形而上狀態,不可能存在于形而下狀態里。在發生學的意義上,意識通過語言而實現意識的客觀化,只有當意識建構了語言這個客觀系統,主體性才得以建立。亦即意識先建立了客觀性,而后才能形成主體性,在建構客觀性之前的意識并沒有主體性,意識正是通過建構客觀性而把自身變成了主體性——我相信這是胡塞爾意識理論的深意。關于自我意識一直有個誤解,即自我意識往往被認為等于自我認識的能力,即能夠確認“我是我”的身份。可是自我意識是一個開放系統,“我”總在演變中,這意味著“我”可以自相矛盾。更重要的是,我對“我”的解釋始終在重新創造“我”。因此,主體性始終是一個創造者而不僅僅是認識者;主體性的要義不僅在于認識自己,更在于創造自己;從根本上說,主體性不是一個知識論概念,而是一個存在論概念。

由此看來,GPT的“意識”就十分古怪了。與海倫的情況相反,GPT直接學到了語言,但沒有外部刺激或具身經驗,相當于能夠正確地發送密電文,但自己沒有密碼本。語言是一個自相關或自解釋的系統,語言既是意識的代碼系統,同時也是其解碼系統,自己能夠解釋自己。假如未來的人工智能學到了功能完整的語言,即既是代碼系統也是解碼系統的語言,那就相當于有了密碼本,就很可能會有自我意識,人工智能將有可能討論自己并且重新建構自己。不過,我們現在還不知道人工智能如何才能學到功能完整的語言,對此,方法論還是個疑問。

2.回到語言問題

GPT不理解語言的實質意義,這終究是個缺陷。那么,如果我們加料“喂”給GPT先驗語法,是否會有用呢?然而問題首先是,GPT需要何種先驗語法。喬姆斯基的“先驗語法”并不能充分和普遍地解釋語言的規則和用法,仍然有不小比例的語言現象無法以之來解釋,尤其是印歐語系之外的語言現象。并非所有的語言實踐都能夠還原為喬姆斯基的先驗語法,而這個短板正是喬姆斯基語言學后繼乏力的原因。

我疑心喬姆斯基選錯了思路。正確的思路恐怕不是在語言學里去尋找先驗語法,而是在哲學里去尋找維特根斯坦提出的屬于思想結構的“哲學語法”。在維特根斯坦的激勵下,請允許我以非語言學家的身份大膽地對語言學提出一個問題:語言學的語法,比如主謂賓語法,只是思想的外傳形式,是歷史偶然形成的一種信息傳遞形式,不等于思想的普遍運作方式和內在結構。我們在尋找的真正“元語法”不是語言學語法,而是普遍思想結構。

毫無疑問,思維必須以語言為載體,但不是按照語言學的語法來運作。在內在意識里,我們完全可以不按照語法而自由地使用語言,只在需要說出來時才用“正確的”語法來表述以便有效交流。早已發現的一種最重要的元語法就是邏輯,現代邏輯已基本上探明了邏輯原理。邏輯決定了概念之間和命題之間的必然關系,是思維的一種真正的元語法。邏輯語法與語言學語法的不同之處顯而易見。

這里我想另外提出的是,在邏輯的形式關系之外,思維還存在著解釋實質關系的元語法,即我在《一個或所有問題》里提出的“動詞邏輯”。(參見趙汀陽)形式邏輯已經充分討論了以名詞為本的概念關系和命題關系,而以動詞為本的事件和行為關系還沒有被充分說明(包括但不限于傳統哲學關心的因果性)。在存在論意義上,所有事件和行為的意義在于動詞的“能量”或作用力。動詞是一切事情的核心,正是動詞制造了所有需要思考或需要處理的問題,不以動詞為本就沒有問題值得思考。動詞場——動詞召集和組織相關事物所形成的行為-事件場域——才是思想問題的發生地,思維是圍繞動詞而不是圍繞名詞而展開的。激進地說,“事情做成什么樣”比“事情是誰做的”要重要得多。人類之所以特別關心“主語”,恐怕是因為其與權力、權利和責任有關。但對于天地而言,或者在存在論上,做事的主語不重要,發生的事情更重要,即所謂天地“不仁”,不會重視自戀的主語。因此我想象,如果有一種“動詞邏輯”可被用來分析事件和問題的生成關系與客觀結構,就能夠與分析真值關系的“名詞邏輯”(即現代形式邏輯)形成配合,從而幫助我們更為充分地理解意識和語言,理解語言何以成為自身的自我解釋系統。從根本上說,名詞的意義是由動詞建構起來的,就像萬物的存在是由運動來定義的,所以,解釋存在的是動詞而不是名詞,動詞才是語言的本源。如果“太初有言”,其言必是動詞。

僅僅依據名詞邏輯或以名詞為本的語法,人工智能恐怕只能替人思考而很難去反思自己可以主動做什么事情。假如人工智能學會了動詞邏輯,或許就能夠發展出自我意識從而成為真正的主體——當然這純屬猜測。只有意識到動詞才能發動事件、制造問題和組織事物,并且意識到自己就是動詞,把自己定位為動詞,與動詞合為一體,才能夠把“我”變成創造者,成為世界的本源。據此存在論原理,人工智能必須意識到自己是一個動詞,從GPT變成GVT(generative verbs transformer),才能夠演化為人類之外的另一種主體。我的想象是,如果能夠設計并“喂”給AI某種“激勵性的”意向性程序,使之能夠以動詞而不是名詞為出發點去生成AI的自主注意力,不知道AI是否會因此自己發現“動詞邏輯”的原理?當然,這也許只是想入非非而已。

四.一個悖論作為結論

存在著一個“擬人化”悖論:如果人工智能無法演化為超越人的主體智能,就不會有真正重要或真正管用的能力;如果人工智能超越人的智能,則可能成為真正危險的另一種主體。考慮到人類道德水平低于任何已知生物,我以一種“葉文潔式”的心情去等待具有自我意識的人工智能。

注  釋

趙汀陽,1998年:《一個或所有問題》,江西教育出版社。

Kripke, S.A., 1982, Wittgestein on Rules and Private Language, Cambridge, Massachusetts: Harvard University Press.


趙汀陽,中國社會科學院學部委員,哲學研究所研究員。著有《論可能生活》、《天下體系》、《一個或所有問題》、《第一哲學的支點》、《壞世界研究》、《天下的當代性》、《惠此中國》、《歷史,山水,漁樵》等,部分著作譯為Alles Unter dem Himmel (Suhrkamp,德國);Tianxia tout sous un Meme Ciel(Cerf,法國);All-under-heaven:The Tianxia System for a Possible World Order (Univ. California,美國);Redefining a Philosophy for World Governance (Palgrave-Macmillan,英國);Tianxia: Una filosofia para la gobernanza global(Herder, 西班牙); Tutto Sotto il Cielo (Ubalddini, 意大利);Nowa Filozofia ladu Swiatowego (Time Marszalek, 波蘭), 以及合著Un Dieu ou tous les Dieux (Cent Mille, 法國,與A. Le Pichon 合著);Du Ciel ala Terre (Les Arenes, 法國,與R. Debray 合著)。

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能GPT是什么
人類的文化進化(書本稿)
【綜述專欄】“ChatGPT的問題、風險與機遇”會議綜述
張崢、小白談GPT與人工智能:可能是好事,也可能不是
ChatGPT與人類的相互超越——后人類時代的雛形已經到來
面對大量的語法與語法規則,這個老師……
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 黄大仙区| 如东县| 鄄城县| 班玛县| 滦平县| 腾冲县| 卓尼县| 福建省| 绥宁县| 云阳县| 黄陵县| 元朗区| 通化市| 开化县| 建宁县| 沈丘县| 东莞市| 文昌市| 青川县| 八宿县| 鲁甸县| 县级市| 玉树县| 重庆市| 保靖县| 老河口市| 枣阳市| 都昌县| 哈尔滨市| 新建县| 东乌珠穆沁旗| 弥渡县| 梓潼县| 襄城县| 濉溪县| 新疆| 民勤县| 师宗县| 日照市| 深泽县| 泰和县|