這個世界上對AI最擔憂的人應該就是庫茲韋爾了,他在幾年前提出了著名的“奇點理論”,警示AI對在未來給人類文明帶來的影響。
可能你覺得真正的AI時代還很遙遠,但是在了解奇點理論后,你就會重新思考這個問題了。
在了解這個奇點理論前,我們得先大概了解一下AI。業界把人工智能按照先進程度,分為三種:弱人工智能,強人工智能,超級人工智能。AlphaGo Zero是弱人工智能。雖然你覺得它很強大,但它其實只能在特定領域、既定規則中,表現出強大的智能。你讓他畫畫寫公眾號文章,那它就是個垃圾。
那什么是強人工智能呢?強人工智能,不受領域、規則限制,只要是人能干的事情,它都能干。超級人工智能呢?就是遠遠超越人類的智能。
奇點理論
再回過頭來看奇點理論,理論中提了一個預測▼
純人類文明將終止于2045年。屆時強人工智能終會出現,并具有幼兒智力水平。然后,可怕的事情出現了,在到達這個節點一小時后,AI立刻推導出了愛因斯坦的相對論以及其他作為人類認知基礎的各種理論;而在這之后一個半小時,這個強人工智能變成了超級人工智能,智能瞬間達到了普通人類的17萬倍。這就是改變人類種族的“奇點”——電腦智能與人腦智能兼容的那個時刻。
庫茲韋爾的理論源自于他提出的一個定律——加速回報定律:
科技的發展是符合冪律分布的,其發展前期緩慢,但是之后會指數級地爆炸增長,導致存儲能力、計算能力、芯片規模、帶寬的規模暴漲。
來看看歷史的例子:
70年前,人類發明了第一臺計算機,占地四室一廳,每秒能計算5000次,而今天一只帶在你手上的手機,計算速度都比它快十幾萬倍。
看到這你可會想,他是誰?我憑什么信這些?
庫茲韋爾來頭可不小,作為Google公司的工程總監,擁有39項專利和19個榮譽博士學位。他的支持者有很多,最著名的莫過于史蒂芬·霍金,比爾·蓋茨,艾隆·馬斯克。克林頓總統曾授予他國家科技獎章,比爾·蓋茨稱他是“在預測人工智能未來領域的最佳人選”。
美國宇航局和谷歌公司還贊助他創辦了“奇點大學”,2007年前成立。 在“奇點大學”校門前,門楣上的校訓是“奇點來臨”。
反對者
同樣,他的反對者也不少。他們認為,強人工智能不會出現,因為庫茲韋爾的加速回報定律錯了。技術發展有極限,到了一定程度就會停止。比如著名的摩爾定律:芯片的計算力每18個月翻一番,價格降一半。這個定律左右了科技界很多年,但最近也因為遇到物理極限,開始放緩。
結語
庫茲韋爾僅僅是基于現有的科學理論推算未來世界的可能狀況,至于這個理論成不成立,就讓我們在2045年見分曉。
但是不可否認的是,機器在變得更聰明,而人類越來越笨。在數字時代,普通人只需動動手指,就可以獲取各種知識。原來知識的來源是特定領域的專家。現在,即使不是該領域的專家,也能輕松運用知識,導致用戶缺乏深入學習知識的動力,只要上網搜一搜 “借用”別人的“聰明才智”就可以了 。人類對機器的依賴性不可避免得越來越高,而機器對人類的依賴性恰好相反。因此,很快就會出現比人類更聰明的機器,而原因不僅僅在于機器變得更聰明。