所思003 | OpenAI離職潮與AI的未來(lái)

近期科技圈有很多關(guān)于 AI 的大事,OpenAI 發(fā)布 GPT-4o 模型,Google I/O 大會(huì)也有相應(yīng)的競(jìng)品登場(chǎng),字節(jié)跳動(dòng)發(fā)布大模型「豆包」,國(guó)產(chǎn) LLM 使用成本進(jìn)一步降低...

繼 OpenAI 董事會(huì)紛爭(zhēng)之后,其內(nèi)部又開(kāi)始了新一輪「離職潮」:首席科學(xué)家與聯(lián)合創(chuàng)始人,AI 保守派的代表人物 Ilya Sutskever 離職,超級(jí)對(duì)齊團(tuán)隊(duì)負(fù)責(zé)人 Jan Leike 離職。

本次發(fā)布會(huì)上,GPT-4o 模型只發(fā)布了文字 / 圖片生成文字的能力,手機(jī) App 的語(yǔ)音對(duì)話則還是原版 GPT-4 模型,官方的解釋是考慮到安全問(wèn)題延遲發(fā)布,會(huì)盡快向合作伙伴通過(guò) API 提供這些功能,新模型的多模態(tài)輸出能力會(huì)在幾周后上線。

目前一種主流的看法是 Google I/O 大會(huì)發(fā)布新模型的消息從今年三月就已經(jīng)傳出,而 OpenAI 可能是迫于競(jìng)爭(zhēng)壓力,才在新模型未準(zhǔn)備好的情況下用一場(chǎng)二十分鐘的發(fā)布會(huì)搶占先機(jī)。

但考慮到上文離職的兩人對(duì) AI 商業(yè)化應(yīng)用的看法,以及超級(jí)對(duì)齊團(tuán)隊(duì)的工作內(nèi)容(使 AI 研究方向與人類興趣點(diǎn)一致,并使其可被人類信任),有人提出 AGI(通用人工智能)可能已經(jīng)取得了突破性進(jìn)展,這兩人也許是由于無(wú)力阻止 AGI 發(fā)展而離職。

我最近做的題目中也出現(xiàn)了一些關(guān)于 AI 的內(nèi)容,二模英語(yǔ)作文是 OpenAI Dev Day 后我們?cè)谖磥?lái)面臨的挑戰(zhàn);前幾天做的語(yǔ)文模擬卷,名著題是給 Sora 模型寫(xiě)提示詞,生成紅樓夢(mèng)相關(guān)的視頻。

我堅(jiān)定地認(rèn)為現(xiàn)在 AGI 的發(fā)展方向是錯(cuò)誤的,使用自然語(yǔ)言作為(主要的)輸入方式,雖然降低了普通人接觸 AI 的成本,但它所帶來(lái)的無(wú)法解決的復(fù)雜性和歧義問(wèn)題會(huì)大大增加實(shí)現(xiàn)同等智能水平所需的神經(jīng)元數(shù)量。

現(xiàn)在,AI 訓(xùn)練與推理正在成為數(shù)據(jù)中心耗能增加的重要推動(dòng)力,我的英語(yǔ)作文也寫(xiě)了「As the energy usage of datacenters...」,如果這一問(wèn)題不能得到妥善解決,未來(lái)我們可能會(huì)為追求 AI 所帶來(lái)的效率和情感價(jià)值而付出生態(tài)代價(jià)。這一點(diǎn)我更看好蘋(píng)果發(fā)布的 OpenELM,這種相對(duì)來(lái)說(shuō)「小」的大模型,更利于在端側(cè)設(shè)備上運(yùn)行,同時(shí)保持可接受的能源消耗。

另外一點(diǎn)就是訓(xùn)練集的來(lái)源問(wèn)題,我同樣在作文中寫(xiě)了「...the copyright problems of train sets」,隨著互聯(lián)網(wǎng)中的開(kāi)放語(yǔ)料庫(kù)以極快的速度被喂給 AI,加上各大平臺(tái)對(duì)私域流量的追求,我們將很快面臨無(wú)數(shù)據(jù)可用的局面。事實(shí)上,OpenAI 已經(jīng)開(kāi)始在內(nèi)部測(cè)試用 AI 生成的內(nèi)容訓(xùn)練 AI 本身。

同樣不可忽視的還有模型所需的硬件問(wèn)題,目前使用最廣泛的 AI 訓(xùn)練硬件是英偉達(dá)(NVIDIA)的 GPU,這方面由于 AI 框架使用的 CUDA 生態(tài)很難替代,加上他們的許可協(xié)議禁止消費(fèi)級(jí)顯卡被用于數(shù)據(jù)中心,NVIDIA 將在可預(yù)見(jiàn)的一段時(shí)間內(nèi)擁有操縱各大公司大模型發(fā)展的能力。

Google 確實(shí)在 I/O 大會(huì)上發(fā)布了他們的新一代 TPU(Tensor Process Unit,張量計(jì)算單元),但這一硬件設(shè)備目前還未鋪開(kāi)。得益于它的架構(gòu)設(shè)計(jì)和對(duì)現(xiàn)有 AI 框架的兼容性,如果能用 TPU 大量替換 GPU,倒是有可能減少上文中所述的 AI 興起對(duì)能源的消耗。

AGI 之路漫漫,堆參數(shù)量、燒錢(qián)買(mǎi)硬件不會(huì)有好下場(chǎng)。

今天的討論話題:你是否在自己的工作 / 學(xué)習(xí) / 生活中使用 AI?你對(duì)將他人成果用于 AI 訓(xùn)練怎么看?你期待 / 害怕 AI 在創(chuàng)造性工作上取代人類嗎?


附上我的英語(yǔ)作文:

(修改了幾處詞匯和語(yǔ)法錯(cuò)誤,其余未做調(diào)整)

After watching the OpenAI Dey Day, I have some words to speak out which
about our future life with AI. As the generating AI went viral since OpenAI
released ChatGPT, which is a Large Language Model (LLM) that can predict output based on the human language, we are facing some unsolved problems - the energy usage of datacenters, the copyright problems about train sets as well as some new jobs which will replace the old ones. We are supposed to learn more and try to use AI tools, as well as learn to use some high-level programming languages. Although I think the path of current AI research is wrong, because they use natural languages which are inefficient, I always believe that the improvement of
computing ability, the new model's development, such as Tronsformer and Diffusion, will lead us to the final goal of OpenAI - to let AGI become useful and safe for all of us.

作文滿分 25,這篇得了 5 分,可能判卷老師沒(méi)看懂以為我跑題了,無(wú)所謂啦,本來(lái)就打算隨便寫(xiě)寫(xiě)抒發(fā)下心中所感。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容