AGI 或?qū)⑻崆暗絹??Claude 大腦 Jared Kaplan 重磅發(fā)聲!

--Anthropic?的聯(lián)合創(chuàng)始人、首席科學(xué)家?Jared Kaplan訪談總結(jié)

不知道你有沒有這樣的感受:AI 這兩年的發(fā)展,實(shí)在是太快了??斓绞裁闯潭??快到連身處其中的頂尖科學(xué)家們,都在不斷刷新自己的認(rèn)知和判斷。下邊和大家分享一場信息量爆炸的深度訪談。

1、一場重量級對話:Claude 背后的男人開口了!

這場對話的兩位主角來頭不?。?/p>

? 一位是 Anthropic 的聯(lián)合創(chuàng)始人、首席科學(xué)家 Jared Kaplan,他可以說是 Claude 系列模型背后的核心大腦之一。

? 另一位則是知名科技評論家、未來趨勢研究者 Azeem Azhar。

Kaplan 平時(shí)極少接受采訪,而這次開口,直接帶來了許多“勁爆”觀點(diǎn)。最引人注目的一個(gè)預(yù)測是:AGI(通用人工智能)可能會(huì)在未來兩到三年內(nèi)出現(xiàn)!這比谷歌 DeepMind CEO Demis Hassabis 所預(yù)測的 2030 年,整整提前了 五年以上。當(dāng)然,這只是開胃菜。

2、AGI 不是“登頂”,而是“攀登”的過程

Kaplan 強(qiáng)調(diào),AGI 并不是一個(gè)清晰的臨界點(diǎn),而是一個(gè)漸進(jìn)的過程:AI 會(huì)在多個(gè)維度上不斷接近、甚至超越人類能力,而不是某一刻突然“通關(guān)”。他指出,衡量 AI 能力進(jìn)步有兩個(gè)關(guān)鍵維度:

2.1、環(huán)境適應(yīng)范圍:

從 AlphaGo 只能在圍棋里稱王,到如今 Claude、GPT 能處理文本、圖像、代碼、網(wǎng)頁操作……AI 能適應(yīng)的“世界”越來越大。

2.2. 任務(wù)復(fù)雜度:

從最初只能完成“秒級”的任務(wù)(如識別名詞),到現(xiàn)在 Claude 能完成“小時(shí)級”“半天級”的任務(wù)(比如理解并總結(jié)兩萬字長文),AI 的任務(wù)“耐力”飛躍式增長。

Kaplan 把這種能力的進(jìn)化,稱為 AI 模型“視界(horizon)”的拓展。

3、AI 為什么越來越“聰明”?三大推手

Kaplan 歸結(jié)出推動(dòng) AI 視界不斷擴(kuò)展的三大關(guān)鍵因素:

* 模型智能的持續(xù)提升:

模型結(jié)構(gòu)越來越優(yōu)越,能夠同時(shí)追蹤更多變量、理解更復(fù)雜的邏輯。

* 上下文長度的顯著增加:

從只能看幾百詞的“短視”模型,到今天百萬 token 的“長記性”AI,閱讀一本厚書不再是夢。

* 通過強(qiáng)化學(xué)習(xí)習(xí)得復(fù)雜任務(wù):

AI 不只是“看一看”,而是像人類一樣,通過試錯(cuò)、反饋、規(guī)劃逐步掌握復(fù)雜任務(wù)。

比如他們的 Claude Code,已經(jīng)可以搜索整個(gè)代碼庫、修改多個(gè)模塊,還能自己跑測試!

4、思考時(shí)間:AI 不再“秒回”,而是學(xué)會(huì)“深思熟慮”

一個(gè)很有意思的新概念,是 “test-time scaling”(推理階段擴(kuò)展)。什么意思呢?當(dāng)你給模型 更多時(shí)間和計(jì)算資源,它的回答質(zhì)量會(huì)顯著提升。Anthropic 在 Claude 3.7 Sonnet 模型中,首次引入了“思考時(shí)間(thinking time)”功能:

????用戶可以選擇快速響應(yīng),或讓模型多想一會(huì)兒。

????模型還會(huì)根據(jù)任務(wù)復(fù)雜度,自主決定該“快答”還是“深思”。

Kaplan 用了個(gè)生動(dòng)比喻:“就像你剛上班第一天,面對陌生任務(wù)會(huì)特別謹(jǐn)慎。但熟練后,遇到常規(guī)問題就能快速應(yīng)對。”未來的 AI,不僅要回答問題,還要判斷什么時(shí)候該認(rèn)真思考——這才是更接近人類的智能。

5、Scaling Laws 還有效嗎?數(shù)據(jù)瓶頸是否已至?

談到 AI 模型能不能繼續(xù)“越變越強(qiáng)”,繞不開一個(gè)話題——Scaling Laws(規(guī)模定律)。Kaplan 明確表示:“我們還沒看到 Scaling Laws 失效的跡象。”也就是說,只要數(shù)據(jù)、算力、模型規(guī)模三者齊頭并進(jìn),模型的性能仍會(huì)持續(xù)提升。不過他也坦言,“高質(zhì)量數(shù)據(jù)”正面臨枯竭風(fēng)險(xiǎn)。一旦“好數(shù)據(jù)”吃完,單靠擴(kuò)大規(guī)??赡芫蜔o法帶來預(yù)期益。

但他依然保持樂觀:

? 算法更高效:更聰明的訓(xùn)練方式出現(xiàn)。

? 硬件更強(qiáng)大:新一代芯片降低單位算力成本。

此外,他指出,模型的實(shí)用價(jià)值提升,往往不是靠“變大”,而是靠后續(xù)階段的微調(diào)和強(qiáng)化學(xué)習(xí),來完成具體、有用的任務(wù)。

6、AI 迭代多快?Claude 4 很可能 6 個(gè)月內(nèi)上線!

Kaplan 透露,下一代 Claude 模型可能會(huì)在六個(gè)月左右發(fā)布!為什么迭代這么快?一方面,預(yù)訓(xùn)練效率不斷提升;另一方面,強(qiáng)化學(xué)習(xí)等“后訓(xùn)練”階段進(jìn)步飛速,占用資源少、測試頻次高。他說得很直白:“AI 的進(jìn)步不像芯片那樣一代一代,而是一個(gè)持續(xù)的過程,速度甚至超過摩爾定律?!笨萍荚u論家 Azhar 也補(bǔ)充說,AI 模型進(jìn)化速度快到他都來不及調(diào)整自己的使用習(xí)慣和工作流程——只能靠不斷“實(shí)踐中體會(huì)進(jìn)步”。

7、AI 的全球格局與競爭對手:怎么看 DeepSeek?

最后,Azhar 提到了一個(gè)繞不開的名字——DeepSeek。尤其是 2025 年初發(fā)布的 R1 模型,一度震撼業(yè)界。雖然 Anthropic CEO Dario 曾呼吁用“管制”應(yīng)對競爭,引發(fā)爭議,但 Kaplan 的態(tài)度顯得更為平和:“對 DeepSeek 的進(jìn)展,我們并不意外,事實(shí)上我們已經(jīng)關(guān)注他們超過一年?!彼J(rèn)為,這場國際競爭是不可避免的,但也正是這種競爭,加速了 AI 的整體進(jìn)步。

8、結(jié)語:我們正站在 AI 的“臨界點(diǎn)”前夜

這場訪談,不只是對 Anthropic 發(fā)展戰(zhàn)略的解讀,更是一次站在 AI 浪潮之巔的深度觀察。如果你想了解:

? AGI 可能比我們想象的來得更快

? AI 的“理解力”到底提升到了什么程度

? 模型還會(huì)多快迭代

? AI 如何決定該“秒回”還是“深思”

那么,Jared Kaplan 與 Azeem Azhar 的這次對談,絕對值得一看!

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容