智東西(公眾號:zhidxcom)
編譯?|? 李水青
編輯 | ?云鵬

智東西10月21日報道,近日,前特斯拉AI總監、OpenAI創始成員安德烈·卡帕西(Andrej Karpathy)進行了一場長達2.5小時的深度訪談,系統性地分享了他對AI現狀與未來的深刻洞察,其諸多觀點挑戰主流認知,極具啟發性。

當業內普遍熱議“智能體之年”時,Karpathy卻冷靜地提出,這將是“智能體的十年”。他指出,要打造出真正能像實習生一樣可靠工作的AI智能體,仍需攻克多模態、持續學習、使用計算機等核心瓶頸,這大約需要十年時間。

Karpathy以他近期開源的nanochat項目為例,揭示了大語言模型存在的“認知缺陷”。在需要精確架構的創新性編程任務中,AI助手因過度依賴訓練數據中的常見模式,反而會誤解定制化代碼、增加不必要的復雜性,最終“讓代碼庫膨脹,簡直是一團糟”。

對于推動大模型迭代的主流方法——強化學習,Karpathy的批評尤為犀利。他形象地比喻道,這種方法本質上是“用吸管吸監督信號”,即艱難地將最終結果的單一信號分攤到整個復雜行動過程中,他認為這既低效又荒謬

通過與人類學習方式的對比,Karpathy指出了當前大模型訓練的兩個關鍵缺陷:“模型坍縮/模型崩潰(model collapse)”導致生成內容多樣性枯竭,以及“過度記憶”阻礙了其(qi)像人類一樣發(fa)現(xian)通用模式。

這如同一個死循環:用模型生成的數據訓練新模型,只會讓結果越來越狹隘。有趣的是,Karpathy認為,人類同樣會“崩潰”并固守陳規,而大腦或許正通過“做夢”引入隨機性(熵)來對抗這一趨勢。

在衡量AI進展時,Karpathy認為應更關注其在具體經濟任務中的實際表現,而非抽象指標。他預判,AGI對宏觀經濟增長的推動將是緩慢而持續的,會像計算機、手機等技術一樣,悄然融入并延續原有的約2%的GDP增長態勢

盡管前景漫長,Karpathy卻堅信我們早已處于“智能爆炸”之中。他從一個更宏大的視角闡述:從歷史尺度看,這場變革猶如一場“煙花盛宴”,而我們(men)正以慢動作見證著(zhu)它的(de)發生。

該訪談內容在外網廣泛傳播,社交平臺X上很多網友的評價是“必看”、“每一分鐘都彌足珍貴”、“絕對值得一看”……這些顛覆認知的觀點如何而來?又指向什么?智東西對截取了2.5小時(shi)訪(fang)談(tan)中的核心內容,進行了不改變原意的編輯。

前OpenAI大佬發“暴論”:大模型終將崩潰,越學越傻,人也一樣

前OpenAI大佬發“暴論”:大模型終將崩潰,越學越傻,人也一樣

一、AGI仍需十年時間,多模態、持續學習能力是瓶頸

當業內熱議“智(zhi)能體之年”時,Karpathy卻提出這是“智(zhi)能體的十(shi)年”。那(nei)么是什(shen)么瓶頸需要(yao)去攻(gong)克十(shi)年?

主要對話內容如下:

Dwarkesh Patel: Andrej,為什么你說這是(shi)智(zhi)能體的(de)十(shi)年,而不是(shi)一個智(zhi)能體年?

Andrej Karpathy: 這實際上是對之前一句名言的回應,我不確定這句話是誰說的,他們暗示就大語言模型及其未來發展而言,現在是智能體的十年。這句話之所以觸動我,是因為業內存在一些過度預測的情況

一些早期的智能體令人印象深刻,比如Claude和Codex等已被廣泛使用,但我仍然覺得還有很多工作要做,我們會和這些東西協作十年之久

Dwarkesh Patel: 您認為哪(na)些事(shi)情需(xu)要十年才能實現?瓶頸是什么?

Andrej Karpathy: 真正讓它發揮作用。我們會把智能體想象成雇傭的員工或實習生,但目前它們顯然做不到,原因是它們根本就不行——不夠智能,不夠多模態,無法使用計算機,缺乏持續學習能力等。他們的認知能力不足,所以根本沒用,解決所有這些問題大概需要十年時間。

Dwarkesh Patel: 為什么是10年,而不是1年或者50年?

Andrej Karpathy: 這就涉及到我個人的一些直覺了,同時也是基于我(wo)在該領域的(de)經驗所做(zuo)的(de)一(yi)點推斷(duan)。我(wo)接觸AI領域已有近二十年,不算(suan)特別久。既有經歷讓(rang)我(wo)認(ren)為當下(xia)問題是可(ke)解決、可(ke)克(ke)服的(de),但難(nan)度(du)依(yi)然不小。如(ru)果綜合權(quan)衡(heng)一(yi)下(xia),我(wo)感覺大(da)概需要十年時間才能攻克(ke)。

二、大語言模型仍有認知缺陷,編程模型做得“一團糟”

10月(yue)14日,Karpathy開源nanochat,號(hao)稱可以只(zhi)用不到100美元(yuan)(約合人民幣711.5元(yuan))訓(xun)練出“簡易版ChatGPT”,一(yi)經(jing)發布在(zai)GitHub上(shang)就(jiu)獲得(de)了5.6k星。

但(dan)在(zai)構建nanochat代碼庫時,Karpathy發現當前AI編(bian)程助手存在(zai)明顯(xian)局限,幾乎(hu)沒有幫(bang)助,這是為什么(me)?

主要對話內容如下:

Dwarkesh Patel: 你(ni)在推(tui)特上談(tan)到編程模型對你(ni)構建(nanochat)代碼庫幾乎(hu)沒有幫助,為什么?

Andrej Karpathy: 我大概花了一個多月的時間搭建了這個代碼庫。我認為現在人們與代碼的交互方式主要分為三類:完全拒絕大語言模型、使用模型中的自動完成功能輔助編寫(我現在的階段),以及氛圍編程。我會在特定環境下使用它們。但這些都是你可用的工具,你必須了解它們擅長什么、不擅長什么,以及何時使用它們。

nanochat不是適合的場景,因為它是一個相當獨特的代碼庫。它幾乎是智力密集型代碼,所有東西都必須非常精確地編寫。這些編程模型存在很多認知缺陷。舉個例子,他們總是誤解代碼,因為他們記憶了太多互聯網上典型的做事方式,而(er)我根本沒有(you)采用(yong)這些(xie)方式。

Dwarkesh Patel: 舉個例子?

Andrej Karpathy: 我使用了八塊GPU,它們都在進行前向和后向計算。在它們之間同步梯度的方法是使用PyTorch的分布式數據并行容器,當你進行后向計算時,它會自動開始通信和同步梯度。我認為沒有必要用DDP容器,把它舍棄了,但編程模型試圖讓我使用DDP容器,還一直試圖搞亂代碼風格。

他們防御性太強了,一直試圖構建一個生產代碼庫,而我不需要這些額外的東西。所以我覺得他們讓代碼庫膨脹,增加了復雜性,他們不斷誤解,還大量使用棄用的API。這簡直是一團糟,根本沒什么用。

三、強化學習很糟糕,就像“用吸管吸監督信號”,愚蠢又瘋狂

強化學習(xi)是(shi)(shi)當下大模(mo)型(xing)迭代(dai)的(de)一個主(zhu)流方(fang)法(fa),然(ran)而(er)Karpathy犀利地(di)(di)指出,這種方(fang)法(fa)本質(zhi)上(shang)是(shi)(shi)在(zai)“用吸管吸監督信號”——將單(dan)一結果信號艱難地(di)(di)分攤(tan)到整個復(fu)雜(za)行動過程中,既低效又(you)荒謬,與人(ren)類(lei)通過精細復(fu)盤的(de)學習(xi)方(fang)式截然(ran)不同。

主要對話內容如下:

Dwarkesh Patel: 來聊聊強(qiang)化學習,如何理(li)解人類僅通(tong)過與環境的(de)互動就能構建一個豐富的(de)世界模(mo)型(xing),而(er)且幾乎與場(chang)景結束時的(de)獎勵(li)無關?

Andrej Karpathy: 人類不會使用強化學習。強化學習比我想象得要糟糕得多,當然其他的方法更糟。在(zai)強化學習中,它(ta)幾(ji)乎假(jia)設你得(de)出正(zheng)(zheng)(zheng)(zheng)確(que)答(da)案(an)的每(mei)一個小細節(jie)都是(shi)正(zheng)(zheng)(zheng)(zheng)確(que)的,但這并(bing)非(fei)事實。你可能在(zai)找(zhao)到(dao)正(zheng)(zheng)(zheng)(zheng)確(que)答(da)案(an)之前,一直在(zai)走錯(cuo)路(lu)。你做的每(mei)一個錯(cuo)誤,只要你最終得(de)到(dao)了正(zheng)(zheng)(zheng)(zheng)確(que)的答(da)案(an),都會被加權為“繼(ji)續這樣做”。這很(hen)糟糕,它(ta)就(jiu)是(shi)噪音。

你做了這么多工作,最后卻只得到一個數字。基于這個數字,你就會把整個軌跡的權重加起來,或者減去權重。我喜歡這樣說,你就像在“用吸管吸著監督信號”。你(ni)做了(le)這么(me)多(duo)工作,本(ben)來可(ke)能只(zhi)需要一分鐘就能完成,但現在你(ni)卻(que)把最終獎勵信(xin)號的監督信(xin)息(xi)一點點地吸(xi)了(le)進去(qu),然后(hou)把它(ta)傳播到整(zheng)個軌(gui)跡(ji)上,用它(ta)來加權(quan)或(huo)減權(quan)軌(gui)跡(ji)。

這簡直愚蠢又瘋狂。人(ren)類永遠(yuan)不會這樣做(zuo)。

首先,人類永遠不會進行數百次的部署;其次,當一個人找到解決方案時,他們會經歷一個相當精細的復盤過程:“好吧,我覺得這些部分我做得很好,這些部分我做得不太好。我應該這樣做或那樣做。”他們會仔細思考,目前的大模型訓練中沒有類似的東西。但我確(que)實看到(dao)一(yi)些論文試圖這樣(yang)做(zuo)。

Dwarkesh Patel: 既然這一點顯而易見,那么(me)為(wei)什(shen)么(me)基于過(guo)程(cheng)的(de)監督(du)作為(wei)一種(zhong)替(ti)代方案,卻沒(mei)能成功地提升(sheng)模型的(de)能力(li)呢?是什(shen)么(me)阻礙了我們(men)使用這種(zhong)替(ti)代范式?

Andrej Karpathy: 基于過程的監督指的是我們不會在最后才設置獎勵機制。你完成了10分鐘的工作后,我不會告訴你做得好還是不好。我會在每一步都告訴你你做得有多好。我們沒有這樣做的原因是,如何正確地做到這一點很棘手。你只有部分解決方案,卻不知道如何分配功勞。

事實上,無論何時你使用大語言模型來分配獎勵,這些擁有數十億參數的龐然大物很容易被玩弄。如(ru)果你(ni)(ni)(ni)對(dui)它們(men)進(jin)行強化學習,你(ni)(ni)(ni)幾(ji)乎肯(ken)定會找(zhao)到(dao)對(dui)抗樣(yang)本來作(zuo)為你(ni)(ni)(ni)的模型(xing)評判標(biao)準。所以(yi)你(ni)(ni)(ni)不(bu)能這樣(yang)做太久。你(ni)(ni)(ni)可能只進(jin)行10步(bu)或(huo)20步(bu),也許(xu)會成功(gong),但你(ni)(ni)(ni)不(bu)可能進(jin)行100步(bu)或(huo)1000步(bu)。它會在(zai)這個巨型(xing)模型(xing)的每一個角落和縫隙中找(zhao)到(dao)所有(you)這些虛假的東(dong)西,并找(zhao)到(dao)欺(qi)騙它的方法。

四、與人類學習對比,AI面臨“隱性坍縮”危機,過目不忘成痛點

與(yu)人類的學習方(fang)式(shi)作類比,Karpathy談(tan)及了大模型(xing)學習的兩(liang)個重要缺陷。

一是模型(xing)坍(tan)縮問題。當前AI僅被動(dong)預測數據,缺乏人類(lei)式(shi)的主(zhu)動(dong)思考,導致其生成內(nei)容(rong)多樣性枯竭(jie),即出現隱性坍(tan)縮。

二(er)是過度記(ji)(ji)憶問題。人類因不完美記(ji)(ji)憶而擅長發現通用模(mo)式;AI則困于精確記(ji)(ji)憶,弱于泛化。Karpathy認為,增強AI思(si)考能力需平衡記(ji)(ji)憶與(yu)算法,此為核心挑戰。

主要對話內容如下:

Dwarkesh Patel: 在機器學習領(ling)域,與人類白日夢、睡(shui)眠或單純反(fan)思相對應的概念是什(shen)么(me)?

Andrej Karpathy:的(de)確(que),我(wo)(wo)們(men)在(zai)這方面遺(yi)漏(lou)了一些關(guan)鍵維度。舉個例子,就說(shuo)讀(du)書吧。目前大型語言模型的(de)“讀(du)書”只是(shi)被動(dong)地預測下一個詞,并從中汲(ji)取(qu)知識。但這并非人(ren)類(lei)的(de)學習方式——書籍對我(wo)(wo)們(men)而(er)言,更像是(shi)一組激發思考(kao)、討論與內化的(de)“提(ti)示詞”。人(ren)類(lei)通過這種(zhong)主動(dong)加(jia)工來真正掌握知識,而(er)AI完全缺乏這一機(ji)制。我(wo)(wo)期望未來能讓模型在(zai)預訓(xun)練中融入對材料的(de)深(shen)度反思與消化環節,但這仍是(shi)待解的(de)研究(jiu)課題。

這并非易事,舉個例子,我們為什么不用合成數據訓練模型?核心問題在于模型生成的樣本存在 “隱性坍縮(silently collapsed)”—— 單看(kan)樣本(ben)無明顯異(yi)常,但(dan)實則僅(jin)覆蓋極(ji)小的內容思考(kao)范(fan)圍,數(shu)據分布過于(yu)局限(比如(ru)ChatGPT只會講幾個笑(xiao)話)。這類(lei)(lei)樣本(ben)缺(que)乏人類(lei)(lei)內容的豐(feng)富(fu)性、多樣性與高熵值,難以支撐有(you)效訓練。如(ru)何在避免坍縮(suo)的同時維持熵值,讓合成數(shu)據發揮作用,仍是(shi)未解決(jue)的研究課題。

我認為這個問題可能沒有根本的解決方案。我還認為人類會隨著時間的推移而坍縮,或者說會崩潰。這就是為什么孩子們還沒有過度適應,他們會說一些讓你震驚的話,因為他們還沒有崩潰,但我們已經崩潰了。我們最終會重復同樣的想法,會說越來越多同樣的話,學習率就會下降,崩潰會持續惡化,然(ran)后(hou)一切都(dou)會惡化。

Dwarkesh Patel: 你看過這篇超級有趣的論文嗎?它說做夢是防止這種過度擬合和崩潰的一種方式。它能讓你置身于與日(ri)常(chang)現實截(jie)然不同的奇(qi)特(te)情境中(zhong),從而(er)防(fang)止這種過度擬合。

Andrej Karpathy: 這是一個有趣的想法。我認為當你在腦海中生成事物并加以處理時,你是在用自己的樣本進行訓練,用合成數據進行訓練。如果你這樣做太久,就會偏離軌道,最終崩潰。生活中你總是需要尋找熵。與他人交(jiao)談是(shi)熵的(de)(de)(de)重要來源(yuan),諸(zhu)如此類。也許大腦(nao)也建(jian)立了一(yi)些內部機制來增加這(zhe)一(yi)過程中的(de)(de)(de)熵。這(zhe)是(shi)一(yi)個有趣的(de)(de)(de)想法(fa)。

Dwarkesh Patel: 有一個不成(cheng)熟(shu)的(de)想法(fa),記憶力極差、易遺忘的(de)幼兒,反而擅長(chang)學習新語言(yan)和探索世界;大語言(yan)模型雖(sui)能精準復(fu)述(shu)信息,卻難快速掌握抽象概念;成(cheng)年人介(jie)于(yu)二者之間(jian)。這其中或許有值得探究(jiu)的(de)內容?

Andrej Karpathy: 人類比大語言模型更容易“只見樹木不見森林”。我們不那么(me)擅長記憶,但這是一個特點而非缺點。

大語言模型的記憶力極強,它們被預訓練文檔的記憶所困擾,從某種意義上說,這可能非常分散它們的注意力。與大語言模型相比,人類不太擅長記憶,所以我們被迫在更普遍的意義上尋找模式。這是人類的特性而非缺陷,因為它迫使你只學習可泛化的部分

所以,當我談到認知核心時,我希望大語言模型更少地進行記憶,只需保留用于思考的算法、實驗的想法以及所有這些用于行動的認知粘合劑。

Dwarkesh Patel: 這也與防止模型崩(beng)潰(model collapse)有關嗎?解決方案是什么?

Andrej Karpathy: 我(wo)不(bu)確定(ding),這(zhe)大(da)概是另一(yi)個分支。模型的記憶(yi)力太強了,我(wo)們應(ying)該想辦(ban)法(fa)把它(ta)去掉。人類的記憶(yi)力差得多,但這(zhe)也是一(yi)件好(hao)事。

談到解決方案,你可以想象一下對熵之類的東西進行正則化。我猜它們在經驗上效果不佳,因為現在的模型已經坍縮了。但我要說的是,我們想要的大多數任務實際上并不要求多樣性,這或許就是(shi)問(wen)題的(de)答案(an)。

前沿實(shi)驗室(shi)正在努力(li)讓(rang)這(zhe)些(xie)模(mo)型變得(de)實(shi)用。我覺得(de)輸出結果的多樣性并不重(zhong)要……首(shou)先,處理(li)和評估這(zhe)些(xie)事情(qing)要困(kun)難(nan)得(de)多,但這(zhe)可能并不是(shi)捕捉(zhuo)大部(bu)分價值的關鍵。

五、我們處于慢動作 “煙花盛宴”中,但AGI不會使GDP突進增長

人(ren)們提出了不同(tong)的AGI進展衡量(liang)標(biao)準。例如用“教育水平”類比:從(cong)高中生到博士生;或用“任(ren)務時(shi)長”衡量(liang):從(cong)完成一分鐘任(ren)務到一周任(ren)務。

但Karpathy對(dui)這些標準都不認(ren)同。他認(ren)為更應關注AI在具體經(jing)濟任務中的實際(ji)表(biao)現,而非這些抽象指標。

主要對話內容如下:

Dwarkesh Patel: 我們應該如何看待AI的進步?

Andrej Karpathy: 我幾(ji)乎想拒絕“如何(he)衡量(liang)AGI進展(zhan)”這(zhe)個問(wen)題,因為AI只(zhi)是計算的(de)(de)延伸(shen)。我堅持OpenAI最(zui)(zui)初(chu)的(de)(de)AGI定義:一(yi)個能完成任何(he)具有經濟價值、性能達到或超過(guo)人(ren)類(lei)水平的(de)(de)系統。人(ren)們在探(tan)討進展(zhan)時(shi)把(ba)實體工(gong)作(zuo)(可能占經濟總量(liang)超80%?)排除在外,這(zhe)與最(zui)(zui)初(chu)的(de)(de)定義相比(bi),是一(yi)個相當大的(de)(de)讓步。即便只(zhi)拿下(xia)剩下(xia)的(de)(de)“知識工(gong)作(zuo)”市(shi)場,那也是一(yi)個價值數萬億(yi)美元的(de)(de)龐大市(shi)場。

按OpenAI的定義,AI進展其實有限。以放射科醫生為例,預測其被取代是錯誤的,因為工作本身復雜。真正可能自動化的是如呼叫中心員工的工作——簡單、重復、數字化。即便如此,我期待的也是“自主性滑塊”:AI完成80%工作量,人類負責監督20%,管理不完善的AI。這將是(shi)漸進過程,而非取代(dai)。

Dwarkesh Patel: 目前的模型(xing)更(geng)接近 “編譯器” 工具而非人類 “替代”。但(dan)如果真的出(chu)(chu)現(xian)AGI,它理(li)應能勝任(ren)你(ni)(ni)的工作。要是(shi)能并行復制出(chu)(chu)上百萬個 “你(ni)(ni)”,你(ni)(ni)認為會(hui)極大加速AI的發展進程嗎(ma)?是(shi)否會(hui)出(chu)(chu)現(xian) “智能爆炸”?

Andrej Karpathy: 我認為會的,但這其實只是常規發展而已 —— 因為我們早已身處智能爆炸之中,而且已經持續數十年了。本質上,GDP曲(qu)線就是工業領域(yu)諸多方(fang)面的(de)指(zhi)數加權總和(he),能直觀反映這一點。

數(shu)百年來,所有事物(wu)都(dou)在(zai)(zai)逐步實現自(zi)動(dong)(dong)化:工業革(ge)命解決了物(wu)理層面的自(zi)動(dong)(dong)化,涉(she)及機(ji)械組(zu)件、工具制造(zao)等(deng)領域;編(bian)譯器則是早期的軟件自(zi)動(dong)(dong)化產物(wu),諸如此類。長期以來,我(wo)們一直在(zai)(zai)進行遞歸式的自(zi)我(wo)提升,處(chu)于智(zhi)能(neng)爆(bao)炸的進程中。

換個角度看,若不考慮生物機制等因素,地球曾是個十分單調的地方,樣貌幾乎沒什么變化。但從太空俯瞰就會發現,我們正處于一場 “煙花盛宴” 之中,只是我們是以慢動作在見證這一切。我堅信這種智能爆炸早(zao)已發(fa)生并持續了很(hen)久。

再說一次,在(zai)我看來(lai),AI并非與長期以來(lai)的技(ji)術(shu)發展割裂的獨特技(ji)術(shu)。

Dwarkesh Patel: 你認(ren)為它(ta)與這種超指(zhi)數(shu)增長趨勢是一脈相承的?

Andrej Karpathy: 沒錯。這也是我對這個話題很感興趣的原因。我曾試圖在GDP數據中找到AI的痕跡,本以為GDP 會因此出現顯著增長,但后來我研究了其他一些我認為具有變革性的技術,比如計算機、手機等,卻發現也無法在GDP數據中看到它們的明顯影響,GDP依然保持著原有的指數增長態勢

所有技術的影響都被分散開來,傳播過程十分緩慢,最終都被平均到了那條不變的指數增長曲線中。計(ji)算機的情況也完全一樣,你無法在GDP數據中找到 “哦,我們現在有(you)計(ji)算機了” 這樣的明顯拐點,因為它的發(fa)展進程(cheng)太過緩慢。

AI也會呈現出完全相同的態勢。它本(ben)質上(shang)只是更多(duo)形式的自(zi)動化(hua),一種新(xin)型(xing)計算(suan)機和新(xin)型(xing)計算(suan)系統,它存在諸多(duo)問題,其影響會隨(sui)著時(shi)間慢慢擴散,最終也(ye)會融入(ru)那條既定(ding)的指數增長曲線。

這條指數曲線仍將持續攀升,變得愈發陡峭。生活在(zai)那樣(yang)的(de)環境中,將會是一種非常陌生的(de)體驗。

Dwarkesh Patel: 你是說,從工業革(ge)命前到(dao)現在的(de)趨勢來看,呈現的(de)是一(yi)種超指數增(zeng)長(chang)。那如果把(ba)AI納入這個(ge)趨勢圖(tu),它會(hui)讓增(zeng)長(chang)率提(ti)升到(dao)20%甚至200%嗎?還是說增(zeng)長(chang)率始(shi)終(zhong)保持不(bu)變,一(yi)直是2%?

Andrej Karpathy: 增(zeng)長(chang)率大(da)致也保持穩定吧。

Dwarkesh Patel: 只(zhi)在過去兩(liang)三(san)百年里保持穩(wen)定而(er)已(yi)。但縱觀(guan)人(ren)類(lei)歷史,增長率(lv)其實(shi)是爆(bao)發式增長的(de),從0%一路不斷加速達到了2%的(de)增長率(lv)。

Andrej Karpathy: 我曾嘗試(shi)在(zai)GDP曲(qu)線中(zhong)尋找AI的影(ying)響(xiang)痕跡,但(dan)我逐漸(jian)意識到這種思路(lu)是錯誤(wu)的。

結語:道阻且艱,AGI尚有很多瓶頸需突破

在這一采訪中,Karpathy還談(tan)及了ASI(人(ren)工超級智(zhi)能)、智(zhi)能與文(wen)化(hua)的(de)(de)進(jin)化(hua)、自(zi)(zi)動(dong)駕駛發展、教育等(deng)具有實際(ji)意義(yi)的(de)(de)話題方向,比(bi)如他還提出(chu)“ASI可(ke)能會(hui)讓人(ren)喪失對日(ri)益復雜的(de)(de)自(zi)(zi)動(dong)化(hua)系統的(de)(de)理解和掌控(kong)”,“未來智(zhi)能體或許能演(yan)化(hua)出(chu)文(wen)化(hua)”、“要(yao)實現(xian)自(zi)(zi)動(dong)駕駛99%乃(nai)至99.9%的(de)(de)可(ke)靠性需要(yao)付(fu)出(chu)巨大的(de)(de)持久的(de)(de)努(nu)力”等(deng)。

在這場(chang)關于AI未(wei)來(lai)的(de)深刻對話中(zhong),Karpathy既描繪了(le)激動人心的(de)技(ji)術遠景(jing),也(ye)毫不(bu)避諱地指出了(le)當前的(de)根本性瓶(ping)頸。這提(ti)醒我們,在技(ji)術狂熱中(zhong)保持(chi)清醒的(de)認(ren)知(zhi),或許(xu)比盲目樂觀更能推動真(zhen)正(zheng)的(de)進步。通往AGI的(de)道路(lu)沒有捷徑,唯(wei)有持(chi)續(xu)攻克那些“不(bu)性感(gan)”的(de)基礎問題(ti),才能讓這場(chang)變革真(zhen)正(zheng)到來(lai)。

了解訪談完整內容,地址如下:
//www.dwarkesh.com/p/andrej-karpathy