ChatGPT

一,ChatGPT簡介

ChatGPT是一款于2022年11月30日在美國發(fā)布的聊天機器人程序,是一款基于人工智能技術(shù)驅(qū)動的自然語言處理工具。
ChatGPT全稱為“Chat Generative Pre-trained Transformer”,Chat是聊天,GPT是“生成型預(yù)訓(xùn)練變換模型”,它可以翻譯成“聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器”或簡稱“優(yōu)化對話的語言模型”。
ChatGPT是OpenAI開發(fā)的、具有語言預(yù)測與文本續(xù)寫功能的一個大模型。一個用對話的方式進行交互的模型。一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的文本生成深度學(xué)習(xí)模型。一個人工智能聊天機器人程序。
ChatGPT是一款建立在云計算、海量數(shù)據(jù)庫、人工智能算法架構(gòu)和深度神經(jīng)網(wǎng)絡(luò)基礎(chǔ)之上開發(fā)的聊天機器人程序,它不像傳統(tǒng)的搜索引擎一樣復(fù)制和拼湊網(wǎng)上已有的信息給用戶。相反,它提供的回答是有邏輯的、生動的,有上下文關(guān)聯(lián)的。
總結(jié)一下,ChatGPT是美國人工智能研究實驗室OpenAI新推出的一種人工智能技術(shù)驅(qū)動的自然語言處理工具,使用了Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu),也是GPT-3.5架構(gòu),這是一種用于處理序列數(shù)據(jù)的模型,擁有語言理解和文本生成能力,尤其是它會通過連接大量的語料庫來訓(xùn)練模型,這些語料庫包含了真實世界中的對話,使得ChatGPT具備上知天文下知地理,還能根據(jù)聊天的上下文進行互動的能力,做到與真正人類幾乎無異的聊天場景進行交流。ChatGPT不單是聊天機器人,還能進行撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。

ChatGPT功能

ChatGPT目前系統(tǒng)功能主要是文本生成、聊天機器人、語言問答、語言翻譯、自動文摘、繪畫功能、編程功能、視頻生成等八大功能模塊所組成。

二,ChatGPT底層技術(shù)架構(gòu)

ChatGPT生成性預(yù)訓(xùn)練變換模型

從ChatGPT字面意思來看,Chat是聊天,GPT才是關(guān)鍵。
字母G是Generative,屬于生成的人工智能,根據(jù)我們的需要,創(chuàng)造生成全新的內(nèi)容。
字母P是Pre-trained的縮寫,預(yù)訓(xùn)練。表示這個模型已經(jīng)在大量的數(shù)據(jù)集上進行了預(yù)訓(xùn)練,ChatGPT在與人的對話中幾乎接近正常人的交流,就是因為已經(jīng)接受過海量數(shù)據(jù)的訓(xùn)練,而這些數(shù)據(jù)就是我們2022年以前在互聯(lián)網(wǎng)上的內(nèi)容(目前版本的ChatGPT還不具備網(wǎng)絡(luò)數(shù)據(jù)實時更新功能)。ChatGPT當(dāng)前還沒有實現(xiàn)網(wǎng)絡(luò)的實時連接,因此回答問題的時效性受到一定的限制。
字母T是Transformer,轉(zhuǎn)換器的意思,是ChatGPT底層人工智能學(xué)習(xí)的一個算法架構(gòu)。

ChatGPT嚴(yán)格意義上來說是一種基于Transformer的自然語言處理模型。采用預(yù)訓(xùn)練加微調(diào)的方法,通過對大規(guī)模語料庫進行預(yù)訓(xùn)練,對標(biāo)注數(shù)據(jù)進行微調(diào),從而使模型能夠適應(yīng)特定的自然語言處理任務(wù),擁有語言理解和文本生成能力。

ChatGPT的演進

ChatGPT使用基于GPT-3.5架構(gòu)的大型語言模型并加以強化訓(xùn)練訓(xùn)練。
ChatGPT的演進過程:
第一階段:GPT-1發(fā)布
2018年6月,OpenAl 第一篇論文《Improving Language Understanding by Generative Pre-Training》通過生成式預(yù)訓(xùn)練來提高語言理解能力的論文中提出了第一個模型GPT-1。從這篇論文中得出的關(guān)鍵結(jié)論是,Transformer 架構(gòu)與無監(jiān)督預(yù)訓(xùn)練的結(jié)合產(chǎn)生了GPT-1, 加上有監(jiān)督微調(diào)方式,針對特定任務(wù)進行預(yù)訓(xùn)練,實現(xiàn)了強大自然語言理解能力。
第二階段:GPT-2發(fā)布
2019年2月,OpenAI發(fā)表了第二篇論文《Language Models are Unsupervised Multitask Learners》,推出了GPT-2 。GPT-2是一種自然語言生成模型,其設(shè)計目標(biāo)是生成與人類語言相似的文本,可以完成多任務(wù)處理。
第三階段:GPT-3發(fā)布
2020年5月,OpenAI發(fā)表第三篇論文《Language Models are Few-Shot Learners》,推出了GPT-3。GPT-2和GPT-3是兩個不同的模型,它們的主要區(qū)別在于應(yīng)用場景、模型規(guī)模和性能表現(xiàn)。GPT-3是一種自然語言生成模型,它是目前規(guī)模最大的預(yù)訓(xùn)練模型,可以生成高質(zhì)量的自然語言文本,包括文章、詩歌、對話等。GPT-3還支持一些其他的自然語言任務(wù),例如翻譯、問答、語義搜索等。
第四階段:GPT-3.5 發(fā)布
2022年11月29日,OpenAI發(fā)布了一個命名為“text-davinci-003”(文本-達芬奇-003常稱為GPT3.5)的新模型。它以對話方式進行交互,既能夠做到回答問題,也能承認錯誤、質(zhì)疑不正確的前提以及拒絕不恰當(dāng)?shù)恼埱蟆?/p>

ChatGPT的預(yù)訓(xùn)練加微調(diào)

所謂的ChatGPT預(yù)訓(xùn)練,是一個基于transform模型的預(yù)訓(xùn)練語言模型,它的訓(xùn)練邏輯如下:
第一是語料準(zhǔn)備,從互聯(lián)網(wǎng)上收集大量文本語料。
第二是對數(shù)據(jù)預(yù)處理,對語料進行處理,把它們分割成許多獨立的句子或段落,對每個句子進行分詞。分詞后把每個單詞轉(zhuǎn)換成數(shù)字,生成一個數(shù)字序列,然后構(gòu)建成數(shù)字詞典。
ChatGPT訓(xùn)練就是使用這些數(shù)字序列用transformer模型進行模擬場景試驗,需要投入大量的人工干預(yù),并使用監(jiān)督學(xué)習(xí)的方式對預(yù)訓(xùn)練模型進行微調(diào)。根據(jù)獎勵模型優(yōu)化策略,然后生成輸出,ChatGPT的預(yù)訓(xùn)練應(yīng)當(dāng)是基于正向傳遞,反向更新,梯度收斂,預(yù)訓(xùn)練模型降低了獲取更高水平人工智能的成本。

ChatGPT的Transformer轉(zhuǎn)換器

ChatGPT的核心技術(shù)之一是Transformer轉(zhuǎn)換器,Transformer技術(shù)是近幾年人工智能技術(shù)最大的亮點之一,由谷歌的人工智能的團隊“谷歌大腦”首先發(fā)布。
這種模型是使用一種叫自注意力的機制(self attention mechanism),它允許模型在進行預(yù)測的時候,可根據(jù)語言序列的任何位置,為輸入數(shù)據(jù)的不同部分賦予不同的權(quán)重,并支持處理更大的數(shù)據(jù)集。
Transformer的精度和性能上都比之前流行的CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))等模型,大幅提升了模型訓(xùn)練的效果,讓人工智能在更大模型、更多數(shù)據(jù)、更強算力的基礎(chǔ)上進一步增強運算能力。此外,還具有很強的跨模態(tài)處理能力,不僅在NLP(自然語言理解)領(lǐng)域表現(xiàn)優(yōu)異,在語音、圖像方面也顯示出了優(yōu)異的性能。
Transformer是ChatGPT語言模型的核心技術(shù),是一種用于序列到序列(Sequence-to-Sequence)任務(wù)的神經(jīng)網(wǎng)絡(luò)模型,例如機器翻譯,語音識別和生成對話等,它使用了注意力機制來計算輸入序列和輸出序列之間的關(guān)系。
Transformer的主要優(yōu)點是它可以并行地處理輸入序列中的所有信息,因此在訓(xùn)練和推理時都有很高效率。
此外,Transformer沒有使用循環(huán)結(jié)構(gòu),因此它不受長序列的影響,并且在處理長序列時不會出現(xiàn)梯度消失或爆炸的問題。

ChatGPT人類反饋優(yōu)化語言模型(RLHF)

ChatGPT 面對多樣化的問題對答如流,已經(jīng)打破了機器和人類溝通的邊界,這一工作的背后是大型語言模型 (Large Language Model,LLM) 生成領(lǐng)域的新訓(xùn)練范式RLHF (Reinforcement Learning from Human Feedback) ,即依據(jù)人類反饋的強化學(xué)習(xí)方法模型。
OpenAI官網(wǎng)上如是說:我們使用依據(jù)人類反饋的強化學(xué)習(xí)方法模型(RLHF)來實施訓(xùn)練,使用監(jiān)督微調(diào)訓(xùn)練一個初始模型與人類人工智能訓(xùn)練師提供對話,他們在其中扮演用戶和人工智能助手。我們讓培訓(xùn)師可以訪問模型編寫的建議,以幫助他們撰寫答案。為了創(chuàng)建強化學(xué)習(xí)的獎勵模型,我們需要收集比較數(shù)據(jù),其中包括兩個或多個按質(zhì)量排名的模型響應(yīng)。為了收集這些數(shù)據(jù),我們進行了人工智能培訓(xùn)師與聊天機器人的對話。我們隨機選擇了一個模型編寫的消息,抽樣了幾個替代完成,并讓AI培訓(xùn)師對它們進行排名。使用這些獎勵模型,我們可以使用近端策略優(yōu)化來微調(diào)模型,我們執(zhí)行了此過程的多次迭代。

ChatGPT強化學(xué)習(xí)算法訓(xùn)練獎勵模型簡單來說就是分為三個階段:
第一階段是收集示范數(shù)據(jù),人工智能培訓(xùn)師與聊天機器人對話,并接受監(jiān)督。
第二階段是收集比較數(shù)據(jù),訓(xùn)練一個獎勵模型。
第三階段是利用PPO強化學(xué)習(xí)算法,優(yōu)化一個針對獎勵模型的策略。

ChatGPT的DALL.E 2自然語言轉(zhuǎn)換成像技術(shù)

根據(jù)OpenAI官網(wǎng)上的介紹,ChatGPT中的DALL.E 2自然語言轉(zhuǎn)換成像技術(shù),最初只是一個研究項目,目標(biāo)是制定并繼續(xù)改進安全緩解的措施,其中包括:
第一、限制DALL·E 2 自然語言轉(zhuǎn)換成影像時生成暴力、仇恨或成人圖像。通過從訓(xùn)練數(shù)據(jù)中刪除有害的視頻內(nèi)容、使用先進的技術(shù)來防止真實人物的面部,包括公眾知名人物的面部在視頻中出現(xiàn)。
第二、遏制用戶濫用政策。不允許文本要求生成暴力、成人或政治內(nèi)容等視頻。如果我們的過濾器發(fā)現(xiàn)可能違反我們政策的文本提示和圖片上傳,ChatGPT就會采用自動化和人工監(jiān)控系統(tǒng)予以拒絕。
OpenAI認為:負責(zé)任的開發(fā)和安全監(jiān)管是人工智能的重要組成部分,讓用戶對ChatGPT安全系統(tǒng)有信心。
OpenAI希望DALL.E 2自然語言轉(zhuǎn)換成像技術(shù)能降低圖像生成模型相關(guān)的風(fēng)險。為此,DALL.E 2在互聯(lián)網(wǎng)上數(shù)億張帶標(biāo)題的圖像上進行訓(xùn)練,刪除并重新加權(quán)其中一些圖像,更改模型學(xué)習(xí)的內(nèi)容。
同時,采用在DALL.E 2中設(shè)置各種防護欄訓(xùn)練數(shù)據(jù)集,過濾訓(xùn)練數(shù)據(jù),放大偏差、重復(fù)數(shù)據(jù)刪除等多種技術(shù)手段,以防止生成的圖像違反內(nèi)容管制政策。使人們能夠創(chuàng)造性地表達自己,幫助人們了解ChatGPT人工智能系統(tǒng)如何看待和理解我們的世界,對于創(chuàng)造人類的人工智能使命至關(guān)重要。

ChatGPT存在哪些局限性

1,數(shù)據(jù)偏差和樣本不足問題。雖然 ChatGPT 使用了很大規(guī)模的語料庫進行預(yù)訓(xùn)練,但是其在某些領(lǐng)域的樣本仍然不足,比如在一些非英文的語言中,ChatGPT 的表現(xiàn)不如英文。
2,在訓(xùn)練的強化學(xué)習(xí) (RL) 階段,沒有真相和問題標(biāo)準(zhǔn)答案的具體來源,來答復(fù)你的問題。
3,模型參數(shù)過多,計算資源要求高。ChatGPT 模型參數(shù)數(shù)量大,對計算資源的要求也高,需要大規(guī)模的GPU 集群才能進行訓(xùn)練和應(yīng)用。
4,監(jiān)督訓(xùn)練可能會誤導(dǎo)/偏向模型傾向于知道理想的答案,而不是模型生成一組隨機的響應(yīng)并且只有人類評論者選擇好的/排名靠前的響應(yīng)

三,一些看法

吳軍(計算機科學(xué)家,暢銷書《浪潮之巔》作者)對于 ChatGPT 的看法

在美國,大家談?wù)?ChatGPT 也就十幾天的時間,之后大家就不談這件事了。但是在中國,大家卻造出了一個神。以前,造出的神還是人,比如喬布斯、馬斯克,但是現(xiàn)在卻把一個機器或者工具神化了。ChatGPT 產(chǎn)生的內(nèi)容,基本上是沒有營養(yǎng)的,我們在讀ChatGPT寫的文章時,讀第一遍可能會覺得很有意思,感覺它寫的東西跟人寫的有點像,但是,接下來讀其他文章的時候,就越發(fā)的發(fā)現(xiàn),ChatGPT 寫的文章,幾乎都是車轱轆話,沒有什么意義。
其實,ChatGPT 是一個概率模型,這個模型保證輸出優(yōu)質(zhì)結(jié)果的概率最大。比如,我想寫一份簡歷,并給出了一些關(guān)鍵詞,通過一定的預(yù)測、整合,ChatGPT會輸出一份簡歷,這份簡歷,可能是現(xiàn)有互聯(lián)網(wǎng)資源中的最優(yōu)簡歷。這時,我們可以把互聯(lián)網(wǎng)上跟我給出的關(guān)鍵詞相關(guān)的所有簡歷當(dāng)作是條件,把 ChatGPT 輸出的簡歷當(dāng)作是結(jié)果。試想,如果互聯(lián)網(wǎng)上沒有現(xiàn)有的所有簡歷,ChatGPT 可以輸出的簡歷,會是什么樣的呢?
ChatGPT 在技術(shù)上是一個語言模型——用現(xiàn)在的語言或知識來預(yù)測一些新的語言或者知識,所以它不會產(chǎn)生新的知識。人類的價值在于產(chǎn)生新的知識,而 ChatGPT 就像一臺復(fù)讀機。也正是因如此,ChatGPT 對于在抖音或者快手等平臺上,生產(chǎn)沒有營養(yǎng)的內(nèi)容、文字的人沖擊最大——同樣是沒有營養(yǎng)的內(nèi)容,但 ChatGPT 的生產(chǎn)效率更高,甚至于質(zhì)量更好。
但是,對于稍微有一些創(chuàng)作性的工作,ChatGPT 是替代不了的。但是,現(xiàn)在互聯(lián)網(wǎng)上80%的內(nèi)容都是沒有營養(yǎng)的,而這80%的內(nèi)容,是可以交給 ChatGPT 來做的。
幾年前有一次,出于好奇,我寫了一個簡短的程序,想看看它能不能寫唐詩。其實,答案顯而易見——可以——只要把李白的詩學(xué)習(xí)一遍,就能寫出李白風(fēng)格的詩。但是,程序?qū)懗鰜淼脑?,是沒有李白或者杜甫他們在特定環(huán)境下而產(chǎn)生的深刻感悟的,換言之,是沒有營養(yǎng)的。
同理,ChatGPT 并不是一個很神秘的東西,只是現(xiàn)在很多的人將它神化了。說嚴(yán)重些,如果你也跟著一起造神,那最后的結(jié)果就是被割韭菜。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容