驚奇但不傳奇的ChatGPT——來自小黑粉的茶余飯后

注:本文寫作多依賴于好友樂樂的視頻播客和文本等工作,故轉(zhuǎn)載文章請注明原處,且不得隨意剪裁文本內(nèi)容。

0. 小引

ChatGPT,從進入公眾視野伊始,到如今被廣為熱議。我和好友樂樂就不約而同地站到了小黑粉的隊伍。尤其是樂樂,翻找并整理了大量的論文和博客文獻,深入發(fā)掘并梳理了NLP的演化歷程,實為不易。而樂樂的另一位好友LiL .W2,現(xiàn)就職于OpenAI團隊,也并不對ChatGPT有積極的評價。大家本質(zhì)上的意見是一致的,那就是從學(xué)術(shù)角度來衡量,ChatGPT并不擁有很高的創(chuàng)新度,而更接近近些年NLP領(lǐng)域進展的大綜合,以及大模型中所謂的“量變引起‘質(zhì)變’”。
雖然如是說,但ChatGPT的表現(xiàn)仍然給大家?guī)碓S多驚喜,其構(gòu)建和打磨模型的許多細節(jié)仍然值得被學(xué)術(shù)界和工業(yè)界關(guān)注和借鑒。鑒于好友已在她自己的視頻播客1中對NLP和ChatGPT模型做了詳細的拆解,故本文旨在以最輕量的科普文本,力求讓更普泛的讀者對AI、ML以及NLP等領(lǐng)域現(xiàn)階段進展一窺全貌,并談?wù)剛€人對未來計算機及智能領(lǐng)域的一點想法。

1. NLP演化極簡史

1.1 關(guān)于語言的基礎(chǔ)思考

首先思考這樣一個問題,如何區(qū)分我們的56個民族?一個簡單的回答就是看大家說什么語言或者方言,雖然這還不能精確的區(qū)分56個民族,但卻是最為簡單有效的辦法。事實上,從宏觀的角度看,當(dāng)代的政治學(xué)家和社會學(xué)者都是以語言作為區(qū)分不同民族,信仰和文化背景的重要依據(jù)。那么微觀層面上,我們該如何創(chuàng)造一門語言呢?我想我們可以參考一下J .R .R .托爾金在寫作《魔戒》時創(chuàng)造精靈語的經(jīng)驗。首先我們要有一些基礎(chǔ)符號,它們可以是用來表形的,例如古老的甲骨文,也可以是用來表音的,例如拉丁語系或歐印語系中的字母等。當(dāng)有了這些基礎(chǔ)符號,就可以通過組合排列的方式用來表意,如漢語中的文字或是英語中的單詞,再進一步就可以構(gòu)成短語和句子,當(dāng)然為了約束以方便統(tǒng)一表達,我們還要加上若干抽象的規(guī)則——語法。這樣我們就有了語言,但是因為在最初創(chuàng)造語言的時候采用了不同的基礎(chǔ)符號原則,因此所構(gòu)建出的語言在表達上也會出現(xiàn)區(qū)別,例如英語的字母只是一些音節(jié)的組合,而并不與現(xiàn)實映射,因此總可以通過不同的排列組合方式給出更為精準的定義化表達,這也是為什么許多從事科研工作的人相信英文在科學(xué)技術(shù)相關(guān)的表達要比中文準確。但是,類似中文這樣半象形半表意的語言,則更為適合文藝工作者的表達,因為它更具有詩性的美感。
總的來說,雖然我們并不如一個語言學(xué)家一樣擁有豐富的構(gòu)詞法、語法和語系知識,但這些基礎(chǔ)的認知和思考過程,就足以映射人類在NLP領(lǐng)域中的探索過程。

1.2 從Bag of words到RNN/LSTM,再到BERT/GPT3

“如果一直猴子有無限的時間,那么它就可以在打字機上完整的寫出一部莎士比亞作品”,這個思想實驗大概已經(jīng)成了許許多多統(tǒng)計學(xué)家口中的惡趣味了。但是我們這里可以想象一下,當(dāng)猴子每敲下一個按鍵的時候,計算機是如何“弄懂”猴子要表達的意思呢?一個簡單的辦法,我們可以把26個字母看成是一個26維的空間,這樣每一個字母都對應(yīng)這個空間中某一個維度上的單位向量,它們是彼此正交的,因此可以通過向量的標量乘法和直和的運算方式將一個單詞表示成一個26維的二階張量。雖然看似很復(fù)雜,但是這樣的語言計算機卻可以很快“理解”它們。

Have you seen the movie The Wendering Earth 2? It is great! I really like it.

這里我們看上述一段語料,我們可以利用與猴子同樣的思路,將單詞映射為高維空間中的張量,并根據(jù)單詞出現(xiàn)的頻率賦予它權(quán)重,進而我們就建立了詞袋模型(bag of words)和詞嵌入模型(words embedding), 利用貝葉斯統(tǒng)計推斷,可以選取某個單詞的前三個單詞作為條件概率,從而計算下一個詞匯的概率,繼而確定第四個單詞。當(dāng)然,由于詞空間的維度相當(dāng)之高,這樣的推斷很難準確,如果你用過早期的NLP產(chǎn)品,大概會對當(dāng)時的推測準確率深有感觸。
詞袋模型中一個基本的理念是把一段語料看做成一個詞序列,這樣如果忽略詞語之間的語法關(guān)聯(lián)關(guān)系,就可以把這樣一個詞序列看作是一個馬爾代夫過程,即無歷史關(guān)聯(lián)的隨機過程。那么更進一步的思考,如果要確定一個單詞,我們可以利用前面所有單詞的向量來進行統(tǒng)計計算,這就產(chǎn)生利用RNN來處理NLP問題的基本思想。RNN實際上就是一個循環(huán)網(wǎng)絡(luò),每一次迭代都將一個單詞作為輸入進行計算。

RNN

RNN在處理語料序列的時候,對于詞語詞之間的關(guān)系是“無意識”的,完全依靠統(tǒng)計來處理權(quán)重,這種方式其實并不符合人類對于語言的認知。例如在上述給出的語料事例當(dāng)中,我們當(dāng)然知道the movie和it是對The Wendering Earth 2的指代。而且,由于卷積計算的天然特性,詞語之間的關(guān)聯(lián)關(guān)系會很快被“遺忘”,即權(quán)重在多次卷積計算后趨向于0 。那么一個自然的想法就是,我們需要對這些權(quán)重要有意識的進行增強或是減弱,以至于“遺忘”。那么我們可以改造RNN中每一個迭代的計算過程,這里一個過程可以成為一個Cell,我們需要在Cell中加入一些邏輯門來強化/削弱單詞的權(quán)重,以體現(xiàn)一個語料序列中的重點關(guān)聯(lián)關(guān)系,而這樣的被改造過的RNN就被稱之為LSTM。
LSTM(Long-Short Term Memory)

LSTM中利用所謂的遺忘門函數(shù)選擇強化/削弱一些權(quán)重,進而達到對語意“理解”的目的。當(dāng)然在這過程中,對于詞嵌入的方法也做了進一步處理,即采用所謂的tokenizer的方法進行分詞(詞袋模型中所使用的詞向量辦法一般稱為word2dev),不再是單純的對單詞進行分割,而是對詞根等進行分割,這樣就將語法上的時態(tài)等概念引入了進來,比如want和wanted。
LSTM4一定程度上對NLP的研究過程起到了相當(dāng)?shù)拇龠M作用,并且在機器翻譯領(lǐng)域取得了不錯的成績,但是從結(jié)構(gòu)上,RNN和LSTM都有一個問題是輸入序列長度與輸出序列的長度相當(dāng),所以很難處理長段落語料以及問答系統(tǒng)(問題和答案的序列長度差別很大)。RNN和LSTM另一個技術(shù)上的問題,是所謂的梯度消失/爆炸的問題6。

關(guān)于梯度消失/爆炸問題的解釋*: RNN和LSTM網(wǎng)絡(luò)中的“記憶/遺忘”參數(shù)并不是先驗得出的,而是通過語料文本訓(xùn)練得到的,具體過程是首先給這些參數(shù)一個初始值,然后讓網(wǎng)絡(luò)計算一個文本,并給出輸出向量,同時真實的結(jié)果文本轉(zhuǎn)化為現(xiàn)實向量,我們將預(yù)測向量和現(xiàn)實向量做差(這里指的是差方),就會等到所謂的損失函數(shù)(Lost Function),所以不難看出,損失函數(shù)越小,預(yù)測值與實際值就越接近。為了讓損失函數(shù)得到最小值,對于連續(xù)函數(shù)我們可以采用微分的辦法,這就是所謂的反向傳播,微分之后我們需要找到其最低點,因為最低點時損失函數(shù)為0,即預(yù)測值與實際值相等。而在這個曲面上找到最低點的過程,與你在一片田野上找一個土坑的經(jīng)歷類似,你會找到一些向下的“坡”,然后沿著“坡”一直向下跑,這個過程就是所謂的梯度下降過程,所謂的“坡”就是這里所說的梯度。所有的神經(jīng)網(wǎng)絡(luò)中,為了避免線性擬合的不準確性(可以理解為線性只能擬合直線,但是現(xiàn)實大多數(shù)數(shù)據(jù)都是曲線,即非線性的)都會引入所謂的激活函數(shù),RNN和LSTM當(dāng)中都會引入sigma激活函數(shù),這就讓原本的網(wǎng)絡(luò)計算構(gòu)成了一個非線性動力學(xué)模型系統(tǒng),這種系統(tǒng)的初始態(tài)如果在穩(wěn)定解(吸引子)附近就會逐漸趨向穩(wěn)定,如果遠離這種狀態(tài),整個系統(tǒng)就會像混沌態(tài)演化以至于最終發(fā)散,初始態(tài)一點點的差別,在非線性系統(tǒng)中都會產(chǎn)生天差地別的結(jié)果,這就是所謂的“蝴蝶效應(yīng)”。RNN和LSTM在迭代過程中也是如此,如果初始參數(shù)不恰當(dāng)(事實上很難選擇到恰當(dāng)?shù)某跏贾担?,就會在不斷的迭代?quán)重乘法過程中,使得梯度權(quán)重趨向于0(梯度消失),或者是\infty(梯度爆炸),使得計算過程無法繼續(xù)。

要解決RNN和LSTM的問題,我們必須清晰的知道它們的問題是什么,目前除了計算中的梯度問題,另一個問題就是遺忘門這個設(shè)計還是太過簡單了,還不能讓網(wǎng)絡(luò)像我們那樣理解一段文本語料。那么我們在看一段文本語料時,我們主要看到了什么呢,很好驗證的辦法,你讀完這一段文本之后閉上眼睛,然后你還記得什么?沒錯,你能記住的可能僅僅是一些詞匯,一些重要的詞匯,這是一種“注意力”機制,同樣,我們需要我們的網(wǎng)絡(luò)也能夠產(chǎn)生類似的注意力。一種數(shù)學(xué)上的思路是,當(dāng)兩個向量做乘法時,可以得到一個向量在另一個向量上的投影,相關(guān)性越強,則投影越長,我們利用這個特性讓語料經(jīng)過分詞(tokenizer)后的token進行自乘,已找出重要的東西,并且把它作為權(quán)重重新分配原來的token,這樣我們就相當(dāng)于把“注意力”分配到了這個token上,可以簡單的表示成數(shù)學(xué)公式Softmax(XX^{T})X,這就是最初誕生Attention機制的思路,但然為了訓(xùn)練需要,我們需要改造這個公式,以使得它具有更高的可調(diào)節(jié)性和更好的梯度“坡”來用于訓(xùn)練,即鍵值A(chǔ)ttention的思路
Attention(Q,K,V)=\frac{QK^T}{\sqrt{d^k}}V
這里Q,K,V都是輸入token序列X的線性變換,d為方差。這樣我們就在數(shù)學(xué)上建立了一個簡單的Attention機制,當(dāng)然為了優(yōu)化模型訓(xùn)練等問題,Attention有多種變體,一個非常有參考價值的文獻就是Attention Is All You Need3
另一個要解決的問題就是,RNN和LSTM需要單個token累計輸入到網(wǎng)絡(luò)中,切輸出序列長度與輸入序列長度相等,為了解決這個問題最早提出了seq2seq模型,該模型分為兩部分,一部分稱之為編碼器(Encoder),能夠?qū)⑺休斎攵说男蛄袎嚎s到一個固定長度的向量當(dāng)中,另一部分與編碼器對偶,稱之為解碼器(Decoder),可以利用所得到的壓縮向量計算得出下一個token。但是實際上文本語料中很少出現(xiàn)需要全文本關(guān)聯(lián)的情況,因此seq2seq模型消耗大量的算力計算了一些無關(guān)緊要的東西。因此,一種自然的想法就是結(jié)合Attention和Encoder- Decoder的各自優(yōu)點,也就誕生了NLP領(lǐng)域中目前最為重要的單元結(jié)構(gòu)——Transformer。

Transformer的Encoder和Decoder結(jié)構(gòu)

至此,我們已看到了目前處理NLP的全部歷史輪廓,無論是18年榨街的Bert系列模型,還是更早一些起家的GPT(GPT-1 -> GPT-2 ->GPT-3 -> InstructGPT -> ChatGPT)系列模型都是以Transformer(以下略寫為Tm)為基礎(chǔ)的大語言模型模型LLM(Large Language Model),只不過對于Transformer結(jié)構(gòu)的優(yōu)化和改進,以及整體網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計和Tm組合都有各自的思路,簡單歸納來說,Bert系列使用了Tm整體結(jié)構(gòu),或者只使用Tm的Encoder結(jié)構(gòu);而GPT系列則只使用了Tm的Decoder結(jié)構(gòu)。并且目前為止,這些大模型的訓(xùn)練思路基本上都是采用Pre-Trained(預(yù)訓(xùn)練)+ finetune的思路。

2. 驚奇但并不傳奇的ChatGPT

長城固然是雄偉且壯麗的,但是如果當(dāng)時如果有人告訴始皇帝他發(fā)明了槍,那么熟更具有時代意義是不言自明的。當(dāng)然,我們絕不能因為站在歷史角度來否定受限于歷史局限性的當(dāng)時的人們在筑建偉大長城所付出的智慧和汗水,這樣偉大的工作仍然具有歷史的借鑒價值。這也是個人目前對于NLP領(lǐng)域進展的基本評價。
GPT的本意是Generative Pre-Trained Transformer,根據(jù)OpenAI團隊的披露,GTP-1的誕生實際上要比Bert早一些,但是因為表現(xiàn)能力和宣傳能力,使得它并沒有像Bert那樣受到廣泛關(guān)注。但是ChatGPT之所以如今大火,其主要原因仍舊是在路上,除了使用Tm和Multi-Head Atention等網(wǎng)絡(luò)結(jié)構(gòu)機制之外,Google團隊在GPT-2時還提出了一些“學(xué)習(xí)”思路來處理多類型任務(wù)模型(翻譯,問答等)和零樣本學(xué)習(xí)(Zero-Shot)問題5,10。
機器學(xué)習(xí)領(lǐng)域一直都區(qū)分為有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩種方式,從表現(xiàn)上判斷,有監(jiān)督學(xué)習(xí)需要大量的樣本數(shù)據(jù)進行訓(xùn)練,而無監(jiān)督學(xué)習(xí)只需要設(shè)計一個行為良好的獎勵函數(shù)即可完成學(xué)習(xí)過程。然而我們總可以把所謂的樣本數(shù)據(jù)看做成是一個“智能”獎勵函數(shù)的預(yù)處理結(jié)果,所以在GPT-2中提出的一個重要思路就是,所有一切有監(jiān)督學(xué)習(xí)任務(wù)都是無監(jiān)督學(xué)習(xí)任務(wù)的子集。進而區(qū)分了指示學(xué)習(xí)(Instruct Learning)和提示學(xué)習(xí)(Prompt Learning)兩種處理學(xué)習(xí)任務(wù)的思路。可以簡單以如下的方式來理解這兩種學(xué)習(xí)任務(wù)的區(qū)別。

提示學(xué)習(xí):上個月我去了哈爾濱,這座城市太美了,我很 ____這座城市;
指示學(xué)習(xí):(請判斷該句子所表達的情感)上個月我去了哈爾濱,這座城市太美了,我很喜歡這座城市。選項:A. 很好;B. 好;C. 一般;D. 差;

提出指示學(xué)習(xí)的目的是,對于已經(jīng)針對某個任務(wù)(例如翻譯)已經(jīng)得到的訓(xùn)練后模型,可以采用生成網(wǎng)絡(luò)模型作為獎勵函數(shù),在無樣本條件下對該模型進行微調(diào),以使得該模型能夠處理其他任務(wù),從而既可以解決Zero-Shot問題,也可以讓模型更為泛化。
而預(yù)訓(xùn)練的GPT系列情況如下

GPT-1 GPT-2 GPT-3
Parameters 117 Million 1.5 Billion 175 Billion
Decoder Layers 12 48 96
Context Token Size 512 1024 2048
Hidden Layer 768 1600 12288
Batch Size 64 512 3.2M
Training Data 5GB 40GB 45TB
Created Date 2018-6 2019-2 2020-5

由此可見,GPT-3已經(jīng)是絕對的大模型了,其訓(xùn)練過程總計消耗10000張Nvidia V100顯卡,但是其訓(xùn)練語料樣本主要包含人類搜索數(shù)據(jù)和問答數(shù)據(jù)等,輸出結(jié)果好壞參差不起,因此OpenAI團隊結(jié)合對于InstructGPT模型的研究,進一步采用指示學(xué)習(xí)和PPO算法對GPT-3模型進行微調(diào),從而得到了如今的ChatGPT。


訓(xùn)練過程

如此,OpenAI團隊可以說利用充足的數(shù)據(jù)集、算力資源和物理能量構(gòu)筑了一條迄今為止最為壯觀的NLP長城,其效果也如大家所見,確實給人們以驚人的效果,特別是指示學(xué)習(xí)、強化學(xué)習(xí)模型和PPO算法的運用,挺升了模型的泛性,使得模型能夠自己學(xué)習(xí)代碼,數(shù)學(xué)計算等等非NLP領(lǐng)域的知識,給足了人們驚喜。
但是另一方面,由于地層模型并沒有突破性的創(chuàng)新,模型的對于語義的理解仍然按照Tm模型中的方式進行,所以不禁讓人們思考:我們?nèi)缃窬烤故且寵C器學(xué)習(xí)以人類的方式來理解世界呢,還是以現(xiàn)行的方式來發(fā)展另一種有別于人類的“智能”呢?

3. 從ChatGPT想到的問題

雖然我們看到在ChatGPT使用了許多漂亮的模型和算法處理,但是仍然不能說這樣一個模型具備了如同“人類”一樣的智能,他仍舊是一些以確定化的過程來機械處理數(shù)據(jù)的算法。其實我們今天發(fā)展出的NLP領(lǐng)域進展情況,與其他如圖像識別,語音識別等領(lǐng)域情況,仍然是十分相似的,也就是說雖然這些領(lǐng)域也有一些看起來很“智能”的模型,但是似乎都與人類所認知的智能有著較大的出入。這與這一廣闊的領(lǐng)域中一些主要問題是相關(guān)聯(lián)的。

3.1 黑箱與AGI

到目前為止,人類所追求的目標仍就是通用人工智能(AGI),我們常常描述一個通用人工智體能應(yīng)該如同人一樣的學(xué)習(xí)各種知識和能力,能夠處理不同種類的任務(wù)。限于人們對于“智能”本身知之甚少,所以在這個目標前我們?nèi)杂新L的路要走。個人認為,對于這個問題的本質(zhì)突破仍然需要解決模型的黑箱問題。即我們需要理解并清晰描述模型設(shè)計,訓(xùn)練以及預(yù)測時的所有結(jié)構(gòu)和過程。
部分數(shù)據(jù)科學(xué)家,人工智能方面的學(xué)者以及數(shù)學(xué)家,并不支持一定要揭開黑箱問題,就如同我們孕育了一個新的智能生命,我們可以與其合作,但并不要時時刻刻了解他的大腦里發(fā)生了什么一樣。但個人認為,無論是將這樣的通用智能體看作是“伙伴”還是“工具”,我們都需要讓黑箱變得透明起來,雖然目前的諸多進展顯示這個目標甚至要難于創(chuàng)造通用人工智能體。但是事實上,如果沒有一個這樣的理論來指導(dǎo),我們也同樣難以達成“創(chuàng)造通用人工智能體”的目標。
如果我們能早日攻克黑箱問題,那么許多其他問題將會迎刃而解,比如,我們有三個模型分別用來處理人臉識別、語音識別和翻譯任務(wù)。如果我們需要同時用一套模型處理這些任務(wù)呢,要么我們需要人工區(qū)分這些任務(wù),以調(diào)用不同的模型,要么重新訓(xùn)練一個模型,來處理這三個任務(wù),但是如果能夠揭開黑箱問題,或許我們會有方法直接歸并三個模型而得到一個模型來處理任務(wù)了。
另一方面,我們需要根據(jù)我們的選擇來調(diào)整模型的輸出,比如,我們絕對不希望從ChatGPT看到一些滅世言論或者種族歧視的言論,所以我們需要利用指示學(xué)習(xí)和獎勵模型來對模型進行微調(diào),實際上這也并不是一個簡單的過程,我們需要構(gòu)建一個良好的強化學(xué)習(xí)智能體,來對預(yù)訓(xùn)練模型進行二次訓(xùn)練。但是如果能解開黑箱問題,我們就有可能通過直接調(diào)整模型參數(shù)的方法來直接就錯,從而既可以保證模型的泛性,也可以使模型的輸出得到保證。

3.2 算力問題

我們已經(jīng)看到,要訓(xùn)練出一個ChatGPT這樣的模型,其消耗的算力資源是如此巨大,莫說是個人,即使是非Google同等體量的公司也無法做到。但是實際上,在詞袋模型模型中,我們就看到了,無論是分詞向量還是后來的token向量,大部分元素都一定接近于0,這其實是現(xiàn)實數(shù)據(jù)樣本的特性,同類數(shù)據(jù)樣本在高維空間往往會相互接近,從而使得其他維度都表現(xiàn)為0。那么機器學(xué)習(xí)中無論是卷積計算還是激活函數(shù)等張量計算,實際上都是大規(guī)模稀疏矩陣運算問題。如何有限的削減這種稀疏矩陣運算次數(shù),成了未來發(fā)展機器學(xué)習(xí)和人工智能的關(guān)鍵因素。
其實目前我們已經(jīng)看到了兩種思路,一種是降低反向傳播算力消耗,在發(fā)展神經(jīng)網(wǎng)絡(luò)的過程中,我們都避免不掉反向傳播算法,核心是因為我們沒有這個偏微分方程的解析解,所以只能利用梯度下降算法來找到函數(shù)的極值點。但是最近MIT團隊在一類CfC網(wǎng)絡(luò)中求解了神經(jīng)元傳播的近似解析解7,這無疑會大幅度提升現(xiàn)有的計算效率,從而降低算力資源的消耗。
另一方面,在物理學(xué)中有一種處理極值點發(fā)散問題的方法——重整化8,他的本質(zhì)是在局域區(qū)域做均值,從而易除掉一些無用的信息,降低原始數(shù)據(jù)的維度,這未來也可能成為一種處理算力問題的思路。

3.3 中文的NLP

百度今日發(fā)布說基于ChatGPT的中文模型“文心一言”很快就要發(fā)布,雖然對于國產(chǎn)化是一個不錯的期待,但是這種期待個人覺得是會打折扣的。不同于英文,中文實際上是一種半形半意的語言,他的表達能力和表達思維完全不同于英文,這也是為什么許多做科研的人會覺得英語是更為準確的表達,而一些作家覺得中文是更為詩性的語言的原因。但是在處理機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)模型中,所有的語言都會被映射為一種編碼,中文分詞領(lǐng)域往往采用拼音加上聲調(diào)和位置信息進行編碼,這種編碼對于英文語系是沒有問題的,但是對于中文在編碼過程中,實際上已經(jīng)存在了部分信息的遺失,而丟失的這部分信息往往具有另一層的含義,只有很多以中文為母語的人才會領(lǐng)會。
所以站在這個角度講,中文的NLP模型,很可能需要另辟蹊徑,現(xiàn)有的模型僅僅具有參考價值,我們需要在分詞,transformer等領(lǐng)域分別找到能夠針對中文的模型才可能真正解決中文的NLP問題。

3.4 語言的創(chuàng)造問題

《格林童話》當(dāng)中一個意味深長的寓言就是“侏儒妖”故事,它讓人們意識到:“當(dāng)你能夠給一事物進行命名的時候,你就擁有了理解和支配它的力量”。這其實反映了一個事實,決定人類認知水平的不是其他什么,就恰恰是語言自身。
人類今天的詞典里,并不是一直如今天一樣的豐富,大量詞匯是在歷史的進程中被創(chuàng)造的。而一個新的詞匯被創(chuàng)造出來的時候,往往意味著一個人類文明歷史的進程和人類“智能”上的進展。雖然如此強大的ChatGPT擁有如此強大的能力,它甚至掌握著任何一個人類個體都無法掌握的語料文本,他可以通過組合的方式一本正經(jīng)的胡說八道一段文本,然而它很難具備創(chuàng)造詞匯的能力,因為一個詞匯的誕生往往意味著真正意義上的認知和智能上的進展,以及他背后對于現(xiàn)實世界知覺和處理的力量,這也是為什么短時間內(nèi)諸如ChatGPT等模型很難取代人類的根本原因。與現(xiàn)實社會和自然的割裂,注定了這種模型對于真正“智能”的割裂。

3.5 如何處理ChatGPT創(chuàng)造的文本

ChatGPT這類開放接口的文本處理模型,也會具體的帶來一些現(xiàn)實問題,要如何控制和處理這類問題,將會很快成為大家關(guān)注的一個話題。一個典型的事件就是Stack Overflow官方公開聲明禁止ChatGPT參與問題討論。根本原因就是模型會輸出一些看似“一本正經(jīng)”的處理問題的答案。
那么相關(guān)的思考同樣已經(jīng)迫在眉睫,比如是否通過喂養(yǎng)和誘導(dǎo)等方式,讓ChatGPT具有搜集隱私信息,并向部分非法用戶轉(zhuǎn)錄這些隱私。
ChatGPT輸出的文本如果不加以控制,是否會混淆到現(xiàn)實世界,從而產(chǎn)生一些非事實類描述文本,繼而引起或激化一些人類社會的矛盾。這已經(jīng)并不是第一次討論類似的安全分體,畢竟類似Fake Face和Voice AI等模型已經(jīng)被用于一些領(lǐng)域,以獲取非法利益。
更近一步的,此類模型會不會向一個人發(fā)布同類誘導(dǎo)性文本,從而影響參與者的意識形態(tài),做出違反自身意識和知覺的判斷,我想如果你讀過Jamie Susskind的《Future Politics》,你一定會有類似的擔(dān)心。

3.6* 哲學(xué)問題

20世紀20年代,以卡爾納普、石里克為首的等人成立了“維也納小組”,支持邏輯實證主義,一時間對于“形而上學(xué)”討論聲音,變得噤若寒蟬。這種哲學(xué)上的嚴寒,直至哥德爾對于數(shù)學(xué)實證主義的討論才漸漸停止。
那么如果ChatGPT類似模型產(chǎn)生了類似的邏輯文本,我們是要以“形而上學(xué)”的問題來接納,還是要以邏輯實證主義角度來審視,也可能將成為“科技哲學(xué)”領(lǐng)域所需要深入討論和求證的問題。

4. 價值體系——從ChatGPT到知覺革命

談一點個人體驗,雖然這些年由于商業(yè)價值的需要,諸如“通過圖靈測試”和“奇點降臨”的聲音不少,但是個人認為,短時間內(nèi)所謂的人工智能“奇點”和“元年”都可能不會真正的降臨。
但是回顧這近半世紀互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、信息存儲、傳感器、穿戴設(shè)備、科學(xué)計算、神經(jīng)網(wǎng)絡(luò)和機器學(xué)習(xí)的發(fā)展,都似乎在指向這樣一種結(jié)果——知覺革命。
知覺,可以說是人與自然,人與自我之間的橋梁,它直接影響著人對自然對自我的認知,影響著人生存和生活的基本哲學(xué)和方式。
一個簡單的例子,在紅外設(shè)備發(fā)明之前,我們不會有把握或者策略的穿過一片夜幕籠罩的田野,但是有了紅外設(shè)備,我們就能夠在一定程度上及時發(fā)現(xiàn)風(fēng)險,并找到處置辦法。因此我們具備了夜間出行在荒野的能力,當(dāng)然你可能還會帶上一把用神經(jīng)網(wǎng)絡(luò)來擬合你個人習(xí)慣的武器。實際上這些設(shè)備都是對于人類知覺和能力的延伸。
也許你知道,人眼只可以觀測電磁譜上很狹窄的一段頻率范圍,但是各種新型的物理設(shè)備和傳感器可以延伸你的知覺,可以想象你接收到的信息將是以往的幾十個上百個數(shù)量級的倍數(shù),你會發(fā)現(xiàn)以往無從認知的世界,就如同《三體》中帶著3k眼鏡的汪淼,看到宏大的宇宙背景閃爍一樣。想象一下,你不再通過有限的顏色來透過那些名畫去認知梵高,達芬奇。而是更為寬闊的維度信息來觸碰歷史中那些偉大的靈魂。你甚至可以通過VR/AR/MR等設(shè)備,與這些偉大的人在任何一個你想要的時空中相認識。而你看到的對象將可能是利用神經(jīng)網(wǎng)絡(luò)還原他們的意識,樣貌和真實聲音,就如同你真的穿越時空見到了真實的他們一樣。
雖然看起來這樣的科幻,但事實上許多技術(shù)已經(jīng)具備了現(xiàn)實支撐,這或許很快就成為那樣一場知覺革命中的一個現(xiàn)實片段!

5*. 參考文獻

  1. Yule Wang的Machine Learning Seminar講解與討論
  2. Lil’Log
  3. Attention Is All You Need
  4. Language Models are Few-Shot Learners
  5. Training language models to follow instructions with human feedback
  6. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
  7. Closed-form continuous-time neural networks
  8. Gell-Mann–Low Criticality in Neural Networks
  9. Finetuned Language Models Are Zero-Shot Learners
  10. Language Models are Unsupervised Multitask Learners
  11. Proximal Policy Optimization Algorithms
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容