精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
ChatGPT:生成式AI對弈“蘇格拉底之問”

 

來源:上海師范大學學報

作者:楊俊蕾

作者簡介:楊俊蕾,復旦大學中文系教授,博士生導師,教育部新世紀人才,上海市曙光學者,復旦光華人文學者,教育部高等學校教學指導委員會委員(2018-2022),國家新聞出版署質檢專委會委員,教育部學位中心專家庫成員,中國人文社科期刊評價專委會委員(2022-2025),中國文聯特約研究員(2023-2025),中國電影評論學會理事,中國文藝理論學會會員,中國高等院校影視學會理事,北京電影學院未來影像高精尖創新中心研究員(2018、2019),上海國際電影節選片人,上海影視評論協會理事等。至今發表學術期刊論文70多篇,近期著作及編譯有《詩學經典的在體化面向》《中國當代文論話語轉型研究》《西方文論選讀(英漢對照)》《十八世紀法國室內藝術》《科學素養叢書:科幻與人工智能》等。

ChatGPT:生成式AI對弈“蘇格拉底之問”


摘要:生成式 AI 是人工智能領域中的新技術分支,在近20年的產業發展和布局中形成了九組應用類別。其中,ChatGPT 作為人機對話模型的新興產品,經歷了躍遷式的技術迭代,在全球范圍內引發了未來 AI 將如何輔助人類工作的討論。基于“蘇格拉底之問”和邏輯要素辨析可以發現,生成式AI 的對話模型更多依賴于“指令”設置,不同于傳統意義上的對話文體。凝聚西方思想傳統的“在場”對話方式被改寫為內部循環的數據流動。如何建構符合全人類利益的開放性系統正在成為保障人機協作安全性的共識基礎。

關鍵詞:ChatGPT;生成式AI;蘇格拉底之問;對話模型;開放性系統

生成式AI(AI Generated Content,縮寫為AIGC)旨在利用人工智能技術來生成內容。從人工智能的發展歷程看,生成式AI是弱人工智能向強人工智能/通用人工智能(Artificial General Intelligence,縮寫為AGI)邁進途中新生出來的技術分支。它在基礎原理上更接近阿蘭·圖靈(Alan Turing)關于“無限容量計算機”的智能機器設想,類似于“數字計算機思想的基礎上出現了一個有趣的派生物”。而在關于智能生成技術的場景想象方面,美國哲學家約翰·塞爾(J. R. Searle)在1980年提出的“中文屋論證”(Chinese Room Argument)與“系統應答”設計(Response of System)初步設想了智能機器與人進行對話的系統性程序建構,“在某個根本不存在意向性的領域中,一個系統也可以在概念和經驗上具有像人類一樣的能力”。
事實上,生成式AI的技術主導框架正是20世紀社會思想全面進入信息論、控制論和系統論的思維范式轉換之后的新路徑開發,它以人機界面的構建為平臺端口,將二者間有效而即時的無限交互作為主攻方向。在很大程度上,技術開發的著重點更多傾向于顯著改善應用體驗:一方面是在程序生效的階段耗時上,盡可能縮短人腦信息輸入與類人智能應答輸出兩項步驟之間的信息流動延時;另一方面則是在系統架構的模型基底上,連續激活開放性對話的生成模式,不劃分固定的邊界,也不進行斷點式的層級分化判斷。由此導致的現象級后果之一,就是人工智能再度成為技術社會時代的全球焦點。它與影響重大的另外一些核心新技術發展如新能源、自動化、基因生物和外太空探索等構成可資關聯的實際協同,并在引導大眾認知的話語導向方面持續地實現自身作為驅動力技術的觀念傳播,既為自我演化改進的技術迭代進行系統優化升級,也在擴張性發展中起到“形塑未來”(shaping future)的深遠影響。
需要注意的是,“形塑未來”是代表當前生成式AI的熱門產品ChatGPT(Chat Generative Pre-trained Transformer)的開發方OpenAI在其官網上做出的愿景陳述,從字面含義來看,是技術樂觀主義的衍生映射,在更深層次的知識權力競爭中,則更多包含著對于未來技術路徑的話語權、定義權,甚至是主控權的實際享有。而在關于ChatGPT的具體定義中,OpenAI將之描述為“優化對話語言模型”(Optimizing Language Models for Dialogue)。因此,梳理生成式AI對話模型的優化與迭代歷程,分析該類模型的應用場景與垂直化運行的開放式系統模式,有助于進一步理解人工智能在當前階段的實際狀況,為生成式AI在特定用途中的引入增加專業性的思想準備。

一、從NLP到LLMs的奇點躍遷:

生成式AI對話模型的技術迭代


       

按照產業數據統計的曲線表征來看,人工智能的產業化歷程先后經歷了三個階段的波谷運行。從1956年的正式宣告推出,到20世紀90年代的專家系統問世,再到2000年后因為個人電腦用戶激增而出現新的爆發式增長,人工智能的技術迭代之路始終與市場化的產品推廣存在著若即若離的不確定關聯。直到2022年冬季,OpenAI發布了可以在網頁上直接應用的ChatGPT系列產品,在相對短暫的時段內迅速引發了井噴式的同類型產品跟進和幾何倍速增長的全球用戶規模。至此,標志著人工智能的產業發展進入第四階段,主要表征為系統的開放性和實際運行中的點對點模式。且隨著競品商業化的渠道益發順暢,付費用戶應用智能程序的即時生成在耗時方面能夠明顯優于網絡普通訪客。此舉的經濟獲益在當前階段既不是開發方的主要目的,也不是公眾最關心的內容。它的標志性意義在于推動生成式AI進入知識付費服務,讓智能機器的生成內容開始潛入人類知識領域,在看起來似乎更加“開放”的系統使用中替換了“開放”實際導出的方向,從原來的開放性系統構建以釋放AI的能量,改變為倒逼現有知識系統向生成式AI的內容產出逐漸開放。促成該轉換發生的根本驅動正在于對話模型的技術迭代帶來的效能加速和遠超一般算力的內爆式內容增長。

ChatGPT相關頁面

“讓機器像人一樣思考”,是阿蘭·圖靈為智能機提出的“模仿游戲”基本原理。經過計算機編程實驗之后,人工神經網絡(Artificial Natural Networks)的搭建借助機器學習(Machine Learning)開始進行連接模型(Connection Model)的算法訓練。建立連接的第一步就是人與機器間實現有效的信息交互,亦即生成式AI技術思維中的互信息鏈式法則。作為信息論基礎的“互信息”(Mutual Information)概念,意味著“一個隨機變量包含另一個隨機變量信息量的度量”。旨在運行生成式程序以輸入新的信息變量并及時有效到達信息發出端的AI對話模型,前期調試過程經歷了較長時間的瓶頸期停滯,其中的制約原因就在于從信息輸入層到信息輸出層之間的轉化受到隨機變量的不確定影響。
由于計算機語言的內部系統編碼遲遲不能降低導入信息的理解誤差,人工智能技術在生成式AI的發展道路上陷入徘徊。帶來改變的是從外部系統引入的人類語言處理模式,承擔起突破研發困境的新思路。自然語言處理任務(Natural Language Processing,縮寫為NLP)將類腦設計帶入機器理解的預備程序,實現了多系統間的開放與協同。在智能機器所能讀取的方法模型中搭建類腦的神經網絡,已經在計算機圖像識別和自然語言理解等方面連續得到證實,并逐漸成為機器認知的關鍵夾層,在隱層工作狀態下完成信息轉換,并再次轉換到輸出環節。也正是在這個意義上,計算機的計算過程表現出更近乎人腦特點的黑箱機制,隱在夾層中的卷積層響應方式不再是明顯可見的,相應地也是不可回逆的,其功能導向因此契合了對話模型的應答需求。
更進一步來看機器理解文本內容的技術原理,可以發現具體的自然語言理解(Natural Language Understanding,縮寫為NLU)任務包含了眾多的子項,諸如詞語標注、詞性分理、文本分類與語法析取等。通過目標化的訓練與深度學習,承擔具體任務的智能算法顯示出接近常人的語言理解能力。然而這一節點上的任務是人機共同協作才能達成的。建立(預)訓練集的信息抽取與標注,最初都由人力手動進行,由此附加產生的數字化勞工問題是人工智能倫理學的關注焦點。在結果產出后的用戶反應與評價,則又一次將大型語言模型如何建構的問題推到了公眾面前。
就在ChatGPT的日活用戶注冊量超過2億之后,《自然》雜志在一周內連續刊發兩組科學評論文章,集中分析了大型語言模型(Large Language Models,縮寫為LLMs)作為ChatGPT應用基礎的技術弊端與潛在風險可能。LLMs對于服務器的硬件要求和計算速度的算力要求都遠遠超出了此前的同類型應用。OpenAI在產品介紹中呈現了該對話模型的迭代細節。首先,ChatGPT是經過訓練而來的對話模型,通過網頁接口與用戶進行交互式對話。它的訓練重點在于對話格式的構建與完形,不僅能夠使ChatGPT連續回應、回答系列問題,而且能夠做到反身調節,包括衡量正誤與否,做出及時的判斷,對提問前提進行反思、質疑并中止不合乎訓練內容的不當請求。其次,ChatGPT的訓練方法與InstructGPT模型大致相同,但是作為升階后的兄弟模型,在針對性訓練中格外強化了指令(Prompt)模塊,并在數據喂養中給予詳細的相應范例。該操作使ChatGPT不同于其他更早使用InstructGPT方法訓練而成的同類AI產品。其中的技術奇點是人機協同在生成式AI訓練中的深度關系,甚至是超越限定的跨邊界融合。
ChatGPT的模型訓練使用了來自人類反饋的強化學習(Reinforcement Learning from Human Feedback,縮寫為RLHF)。盡管與InstructGPT的方法原理相同,但在具體的數據收集方式與標注上做出了不同的設置。ChatGPT的初始模型就是在人類監督下的微調訓練,作為提問者的用戶和作為AI輔助應答的回復,在初始環節里都深度依賴人類視野。“人工智能訓練師提供對話,他們扮演用戶和人工智能助手的雙方角色。”在模型訓練的具體過程中,人工智能訓練師的文獻工具是閾值確定的,因而保證了他們所撰寫的回復的信息可靠性。但是接下來,上一回合積累得到的對話數據集在形式上轉換為對話格式,并和此前由生產轉換器得出的數據集加以混合,形成排序和比較,依照對話生成的質量,對模型進行相應的序列整理。再接下來,開始又一個回合的人機協同對話。先由訓練師與應答程序繼續展開對話,再隨機擇取模型輸出的多條信息,在抽樣備選中做出順序排名以形成值得優選出來的獎勵模型。對照獎勵模型的排序,ChatGPT會受到更為優化的模型微調,以及上述訓練過程的反復迭代。

二、生成式AI的技術語境與產業布局


       

人類在歷史上先后經歷了不同勞動方式的改變,如狩獵、游牧、農耕和工業生產。即使在不同生產方式作為主導的時期,新技術的躍遷總能將社會組織整合成新的運作系統。工業革命、信息革命和互聯網革命是塑造當前技術社會狀態的主要動因。隨著ChatGPT的用戶數量快速擴張與全球傳播效果的蔓延,傳聞已久的人工智能技術革命正在讓人們感受到未來加速涌現的先聲。而且,ChatGPT并非一枝獨秀。盡管在金融投資視野中,以非營利為目的的科技創新公司OpenAI是獨角獸一般的突出存在,但是回歸到生成式AI技術的初創領域,還有其他五家開發組織在市值規模、技術開發和產業布局等方面同樣舉足輕重。如果經由行業專家的視角來看,這些各自握有生成式AI代表性產品的大型公司或許將在未來的賽道上共同博弈,并決定著技術接入基底應用的參數、標準和公共安全規則。
目前握有生成式AI初創技術的大型公司共有六家。只有谷歌旗下的DeepMind在2010年成立于英國倫敦。其他五家都在美國境內注冊,其中有三家位于加利福尼亞,分別是成立于1993年的NVIDIA、1998年由谷歌搜索另外掛牌的Google AI和2015年初成立的OpenAI;另外兩家在紐約,是2018年成立的Runway和2013年成立的FAIR(Facebook Artificial Intelligence Research),后者于2021年正式更名為Meta AI(見圖1)。

圖 1 持有初創型人工智能技術的公司的發展圖景

這些科技初創公司的實際經歷共同形成了生成式AI的技術語境,也為ChatGPT在全球范圍內突然獲得公眾層面的普遍矚目進行了將近20年之久的產業布局積累。分析上述六家開發方所持有的23項生成式AI模型(表1),有助于準確定位并預判ChatGPT的新應用場景,以及它作為互聯網搜索暨輔助型智識/知識應答工具,在接下來的人機協同發展中還將增加哪些維度和容量。
從1993年NVIDIA最早研發并定義生成式AI技術中的圖形處理器概念(Graphics Processing Unit,縮寫為GPU),到2023年初引發全球熱議的OpenAI新產品ChatGPT,近20年的算法研發主要集中于9種轉換生成模式。基于表1,可以分為三組方向:第一組方向為文本驅動型,包括文本生成圖像、文本生成視頻、文本生成音頻、文本生成代碼、文本生成3D、文本生成知識段和文本到語言的生成;第二組的轉換方向是將第一組中的文本生成圖像加以翻轉,建成圖像生成文本的模型;第三組的開發方向與上述二者對比來看,不再受限于單項的任務驅動,而是面向多種模式,對多項任務做出回應,表現出生成式AI在未來可能具有的加強型多任務處理能力。以2022年10月發布的動作模型MDM(Human Motion Diffusion Model)為例,它基于文本描述所能生成的人類動作在3D空間中的多樣性表現已經堪稱流暢,接下來繼續使用開源項目Stable Diffusion,為新生成的數字形象加上紋理貼圖,以加快實現文本對象的現實性風格,使AI生成的機制產品更接近有個性辨識特征的類人出品。

圖2生成式AI的產業布局②

根據圖2,通覽上述三組類別中的數十項生成式AI模型與產業發展的實際歷程可以發現,ChatGPT系列的開發及開源投放既不是占據先發優勢的技術破冰者,也不是提供技術基底的系統構架者,甚至在與同類別的模型進行實際比較的多個維度上,都不構成多任務處理的場景便利。因此,思考該模型成為生成式AI代表性產品的根本原因就顯得尤為必要,從中可以更全面地理解當前技術社會對于人工智能技術的大眾心理預期,以及應答式AI與用戶間的互動關系走向。

三、設置“指令”、“蘇格拉底之問”

與人機協同路徑


       

ChatGPT在正式開放測試之后的三個月內,已經飛速積累起數以億計的用戶,他們在不同語言的場景下對該模型提出應答要求。由人機對話生成的各種回答一次次刷新人們對于AI智能水平的認知視野,也引發了IT界和知識界的震動。《科學》與《自然》兩大刊物密集推出連續文章,對該技術可能改變知識教育表示擔憂,并提出技術改善和溯源反制的設想。作為知識界和教育界的代表之一,香港大學幾乎在第一時間明確公布了絕對的禁令,“禁止在港大所有課堂、作業和評估中使用ChatGPT或其他AI工具,除非學生事先獲得有關課程講師的書面同意豁免,否則將被校方視為剽竊個案。若沒有書面許可,ChatGPT和其他基于AI的工具一律不能用于任何涉及學分的活動,若教師懷疑學生使用ChatGPT或其他AI工具,可要求學生就其作業進行討論、進行額外口試及考試等措施”。然而,類似禁令在IT界和其他交叉學科的研究者看來,不僅在現實層面難以操作,而且AI應答技術在未來工作中的擴大使用幾乎是“不可避免的”。
回望近來圍繞ChatGPT進行的跨領域應用實踐,以色列總統伊薩克·赫爾佐格(Isaac Herzog)的案例具有特別的示范性。根據英國天空電視臺的時事新聞現場視頻,赫爾佐格在2023年2月出席了于特拉維夫舉行的重大網絡安全會議,面向數千名高新技術企業的從業者發表了一段開幕發言。他先用完全正確的語法描述了以色列在人工智能等前沿領域取得的前沿成果:
Over the past few decades, Israel has consistently been at the forefront of technological advancement, and our achievements in the fields of cybersecurity, artificial intelligence (AI), and big data are truly impressive.
接下來,再以完全合乎發言者政府領導人身份的口吻,高度贊譽了本國高科技公司在世界舞臺上的亮眼表演:
From the development of cutting-edge cybersecurity technologies to the establishment of successful startups, Israeli hi-tech companies have made a significant impact on the global stage.
然而,在常見流程下即將用勵志語錄進行總結的最后環節,ChatGPT作為發言稿的“特別助手”被推到了眾人矚目的聚光燈下。比借助ChatGPT完成政府發言稿更重要的是,赫爾佐格在發言結尾坦然說明了這篇機器答問的驅動重點在于“讓機器人開始行動”。繼而,以色列總統辦公室向天空電視臺新聞的采訪做出進一步證實,生成此次任務的提示語設計是“寫出一篇人類在超人技術世界中發揮作用的勵志語錄”。
赫爾佐格的ChatGPT生成文本之所以比網絡上流傳的各種類型的應答生成更具有樣本意義,并非因為使用者的政治身份更加特殊,也不是因為該文本的生成質量明顯趨近于政府公文,而是因為使用者在完成演講過程中,及時坦承了工具來源,以及最重要的,通過建構怎樣的驅動指令才能生成符合使用者預期的機器應答。換言之,對話型AI在經過多次問答環節后能夠產出怎樣的內容,在很大程度上既取決于它的技術基礎,也取決于“指令”如何構建。在收到具體任務的文本指令后,根據預訓練過程中的數據標注進入專門的LLMs,在基于“人類反饋強化學習”的基礎上生成應答內容。對話框中最后會出現怎樣的語句段落,不僅與大語言模型中的數據鏈有關,還和文本指令在擬定過程中的微調或修正直接相關。由此也構成了生成式AI在導出內容后的條件反溯。用戶本身對于任務主題的理解程度,以及用怎樣的文本進行指令驅動,在當前階段里顯得比程序所能應答出的實際內容更為重要。
生成式AI對于“指令”的依賴程度顛覆了一般意義上的“對話”文體,將凝聚西方思想傳統的“在場”的對話進行了全面改寫。從西方思想史的脈絡來看,始于古希臘時期的“對話”是承載哲學思想啟蒙的根源。柏拉圖對話錄中記載的蘇格拉底與同時代不同人員的對話幾乎覆蓋了當時可能認知到的所有知識范圍。進行對話的最高宗旨不是為了交換信息,而是通過共同在場的活性思維來探求認知個體對于某一對象的真實認知。對話可能達到的“真”不只是針對認知對象的固有知識,同時也是智慧上的“解蔽”,讓對話人經由對話的方式向內反轉,認識到自己對某一對象的認知程度,最終實現的是德爾菲神廟的門楣神諭:認識你自己(to Know Yourself)。只能說,ChatGPT在典型的蘇格拉底對話中很難找到存身之處,根本分歧在于發起對話的原因不同。蘇格拉底是提問方,但是他的問題指向不是要從對方的回答中有所獲取,而是讓回答者對自己的認知情況形成判斷。正是在這個意義上,對話成為在場者的思想的交流。ChatGPT則完全相反。如果沒有恰當的、有針對性的指令,無論多大規模的LLMs都是循環在內部存儲中的純粹數據流動。如果指令內容尚未包含在已有的預訓練范圍內,則有可能出現對話不能啟動,或者盡管生成了對話,所答卻與所問不相契合,甚至毫無關聯、完全荒謬。如從圖3可以看到ChatGPT在電影知識存儲方面的中國譜系盲點。在有問必答的程序預先規定下,哪怕它對中國著名導演費穆一無所知,也要強不知以為知,用一字之差的物理學家“費米”構成應答內容。

圖3  ChatGPT在電影知識存儲方面的中國譜系盲點

ChatGPT在生成回答后的道歉環節已經在應用中成為標準配置。其中的指令輸入—快速生成—判斷正誤—道歉的信息鏈觸發方式,在根本上正在偏離人工智能概率推理算法中的馬爾科夫鏈。根據工作機理的不同,馬爾科夫鏈的仿真推理采樣算法“可以被視為在狀態空間中——所有可能的完整賦值的空間——的隨機走動——每次改變一個變量,但是保證證據變量的值固定不變”。利用馬爾科夫鏈所能達到的穩態分布(Stationary Distribution),升級后的GPT文本生成工具曾經成功地幫助名為Benjamin的AI劇本寫作軟件,完成了第二部科幻短片Zone Out(2018)。整個任務在48小時內完成,指令層次是多重的,包括給定的片名“Zone Out”,生發對話的提示句“他們要嚴肅地稱之為'亞當’”,道具與行動的設計所基于的描述是,“人物手持鏡頭,在轉動中反射出明亮的光”。再考慮到競賽單元所在的倫敦科幻電影節的特殊性質,多處指令中的最后一條是“用作備選項的科學觀念”,“一種只針對孕婦的基因定制病毒”。從該片在網絡上公布的在線放映情況看,升級后的Benjamin不再自我局限于預訓練的語料庫,它擺脫了初級階段的剪切、復制和語料粘貼,做到了以人類劇作為模仿對象,通過預測字母與詞語的共同出現傾向來生成語句,并利用公共領域的電影片段對短片中的人物表演進行“換臉”(Faceswap)的復雜操作。
ChatGPT和名為Benjamin的劇本算法在開放的AI技術系統中共享了GPT3的神經網絡卷積平臺,擁有共同的人機協同基礎,然而二者在結果生成的指令設置方面存在差異,所依據的數據庫也完全不同。后者的預訓練數據保持在同類型成果的邊界以內,可以清晰地回溯路徑并辨識出風格遷移的關聯元素,且最終成果在生成后達到了一般意義上的文本規模,作為結構獨立的人機協同作品而存在,不再自動融入源數據。與此相反,ChatGPT將生成式AI的應用場景帶入普遍的用戶終端,雖然意外地提早實現了人工智能產業在全球視野中的破殼而出,卻是以指令觸發方式的容錯率為代價,一方面將算力資源最大可能地集中在應用的便利和效率方面,另一方面則是超大擴容大語言模型,降低甚至是裁撤對于數據內容的標注點數量。因此,大幅提高人機協同中的機器產出占比所導致的路徑問題在于,“有很多人工智能生成的文本可能很快就會進入文獻中”。《科學》雜志的主編霍爾頓·索普(H. Holden Thorp)分析了ChatGPT從LLMs中析取出的應答成果可能造成的誤用,指出“有時候ChatGPT會寫出一些聽起來言之鑿鑿而實際上既錯誤又荒謬的回答”。聯系前文圖3呈現的“費穆”與“費米”之間的混淆和張冠李戴,就可以完全理解《科學》編輯部為什么將ChatGPT寫出的文段定義為“抄襲”(Plagiarized)。該刊還明確表述,未來除了創作者有意識地使用AI工具輔助生成合法的數據集,其他所有借助生成式AI完成的產品,無論是文本、圖表、圖形還是圖像,都是工具性剽竊,是科學類學術期刊“不可接受的”。
除了部分學術期刊有條件地拒用ChatGPT之外,還有不同語類的文學雜志先后對此發出否定性公告。隨著ChatGPT技術的濫用,AI生成的稿件數量激增,使專業審稿的編輯行業感受到強烈的沖擊。中國著名的科幻雜志《科幻世界》對外宣布“不接受AI創作的科幻小說”,美國科幻雜志《克拉克世界》(Clarkesworld)更是直接關閉了自由投稿通道。我們從中看到的悖論是:生成式AI不僅沒有如其所許諾的那樣成為人的助力,反而導致負面效應,挾制了人的創制性道路。正如泰格馬克(Max Tegmark)在提出阿西洛馬人工智能原則時對科幻作家阿西莫夫(Issac Asimov)名言的引用,“生命最大的悲哀莫過于科學匯聚知識的速度快于社會匯聚智慧的速度”,對于ChatGPT造成的當前境地,這句名言或許可以仿寫為:技術最大的悲哀莫過于AI生成文本的速度快于人類寫出作品的速度。人機協作路徑在未來發展的方向上需要反思新的可能性,其中的關鍵或許正在于技術系統如何做到真正的開源、開放和安全。

四、結語:真正開放的專家型系統


       

針對AI系統的安全和開放問題,埃隆·馬斯克(Elon Musk)在社交媒體上發表了最新看法。他回顧了自己作為OpenAI創始人的企業理想是“創建一個真正開放的非營利性公司,與谷歌相抗衡”,并以此來反對微軟將其改造為“非開源的、追求利潤最大化的公司”。越來越多的專業研究者發現,在繁花似錦的表象下,ChatGPT及其前期模型ChatGPT3并沒有完全公開它們的基礎訓練集和大型語言數據庫。生成式AI的對話模型在技術系統內部的運作方式也不透明,數據閉環導致了內容生成過程析出大量冗余信息,間或出現知識盲點甚至常識性謬誤。這與趨向透明和科學日益開放的進步觀念背道而馳,也使得應用者很難發現一場對話在知識譜系上的起源或缺失。
事實上,不公布項目開發的源代碼意味著系統在技術上的實際封閉,而在系統理論中,“系統的開放是系統自組織演化的前提條件之一”。當對話模型只限于模式化的應用場景,通過互聯網提供的平臺來構建人機交互界面并虛擬出人機對話的在場感時,使用生成式AI作為輔助的人類個體就背離了作者的定位,而僅僅是在一次次指令設置的調整修改中變為不斷降智的臨時用戶。假設那些不明確的信息源和不能充分判斷的生成結果繼續自動返回系統本身,“自行獨立演化”的后果很可能就是在網絡化的知識空間中增加了大量并非由人完成的“突變”。因此,對于構建專家型系統的呼吁和進一步向公眾開放生成式AI技術的呼吁變得同等重要。在經歷了各種興奮的業績增長和難以預測的抵制或禁用之后,OpenAI在公司主頁上做出了提示語的調整,從“形塑未來的技術”改回了“創建安全的、使全人類受益的人工智能”(Creating safe artificial intelligence that benefits all of humanity)。之所以用“改回”來形容這次研發方向上的調整,是因為該公司在最初成立的時候,關于人工智能的原則討論集中在兩個方面:一是倫理意義上的“安全系統”,二是價值定位上的“服務于全人類利益”。如果對于全人類福祉的考慮能夠真正成為生成式AI的未來技術開發重點,也將意味著一個真正開源、開放的系統正在建構當中。


本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
ChatGPT:自動編程時代的到來?
普通人能用ChatGPT做什么?
多模態GPT:國內發布一款可以在線使用的多模態聊天機器人!快來把玩~
ChatGPT 幫你實現一個小小目標¥¥¥
連上多個熱搜!火爆全網的ChatGPT到底是個啥?
并非所有AI都能一本正經的胡說八道,但ChatGPT做到了
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 安宁市| 建水县| 寿光市| 柳江县| 陆良县| 即墨市| 高陵县| 江西省| 阜新市| 郁南县| 昔阳县| 长葛市| 旺苍县| 沙雅县| 枣庄市| 嘉禾县| 板桥市| 宁安市| 栖霞市| 淮南市| 桃源县| 天峨县| 都匀市| 南澳县| 洛扎县| 宜兰市| 敦煌市| 巴马| 灵石县| 双城市| 绥化市| 贵溪市| 老河口市| 阿拉善右旗| 海南省| 常宁市| 大英县| 罗山县| 娄底市| 阿坝县| 白水县|