讀AI即未來(lái):普通人用好人工智能的18大工作場(chǎng)景01生成式人工智能

讀AI即未來(lái):普通人用好人工智能的18大工作場(chǎng)景01生成式人工智能.png

1. 生成式人工智能

1.1. ChatGPT只用五天就吸引了100萬(wàn)用戶

  • 1.1.1. Netflix的用戶量達(dá)到這一數(shù)字用了三年半的時(shí)間

1.2. 人工智能是一門教機(jī)器模仿人類行為模式的藝術(shù)與科學(xué)

1.3. 生成式人工智能更像是一位精通多國(guó)語(yǔ)言、極具創(chuàng)造力的作家

  • 1.3.1. 能用多種語(yǔ)言創(chuàng)作故事與詩(shī)歌,展現(xiàn)出近乎人類水平的創(chuàng)造力與多樣化的表達(dá)能力

  • 1.3.2. 以往的人工智能可以通過(guò)遵循規(guī)則和指令完成令人驚嘆的任務(wù),而生成式人工智能則憑借創(chuàng)造新想法和新內(nèi)容的能力,帶來(lái)了全新的可能性

1.4. 1962年,科幻作家阿瑟·C.克拉克(Arthur C. Clarke)提出了或許是對(duì)“創(chuàng)新”最精妙的定義之一:“任何足夠先進(jìn)的技術(shù),都與魔法難以區(qū)分?!?/p>

1.5. 要理解生成式人工智能的工作原理,可以借助一些類比

  • 1.5.1. 可以比作廚師依據(jù)自身經(jīng)驗(yàn)創(chuàng)作新食譜

  • 1.5.2. 藝術(shù)家通過(guò)研究、練習(xí)和模仿他人作品來(lái)精進(jìn)技藝

  • 1.5.3. 音樂(lè)家借鑒多年來(lái)從多種流派中汲取的靈感創(chuàng)作新曲

1.6. 生成式人工智能模型源于數(shù)十年間不斷發(fā)展的語(yǔ)言模型

  • 1.6.1. N元(N-gram)計(jì)算應(yīng)運(yùn)而生,它能通過(guò)概率計(jì)算確定某個(gè)詞在句子中成為下一個(gè)詞的可能性

  • 1.6.2. 連續(xù)詞袋模型(Continuous Bagof-Words,CBOW)—根據(jù)周圍的上下文詞語(yǔ)預(yù)測(cè)目標(biāo)詞

  • 1.6.3. 跳元模型(Skip-gram model)—根據(jù)給定的目標(biāo)詞預(yù)測(cè)上下文詞語(yǔ)

1.7. 得益于云環(huán)境的優(yōu)化和芯片處理能力的提升,數(shù)據(jù)處理潛力得到增強(qiáng),這使得更先進(jìn)的自然語(yǔ)言處理(Natural Language Pocessing,NLP)模型得以在輸出結(jié)果上實(shí)現(xiàn)突破性進(jìn)展

1.8. 參數(shù)指的是模型通過(guò)訓(xùn)練所“習(xí)得”的模式數(shù)量,包括數(shù)據(jù)集中的變量,或是通過(guò)數(shù)據(jù)中的模式識(shí)別所形成的關(guān)系權(quán)重

  • 1.8.1. 處理能力:更多的參數(shù)使模型能夠捕捉并處理數(shù)據(jù)中更復(fù)雜的模式和關(guān)系

  • 1.8.2. 更廣泛的知識(shí)庫(kù):大型模型通常在海量且多樣的數(shù)據(jù)集上進(jìn)行訓(xùn)練,這使其能夠理解并生成跨多個(gè)領(lǐng)域的內(nèi)容

  • 1.8.3. 參數(shù)數(shù)量越多,輸出結(jié)果就越令人驚嘆

1.9. 大型模型似乎更易于針對(duì)特定任務(wù)進(jìn)行微調(diào),且微調(diào)過(guò)程所需的數(shù)據(jù)更少

2. 主要步驟

2.1. 數(shù)據(jù)準(zhǔn)備

  • 2.1.1. 人工智能以海量數(shù)據(jù)為基礎(chǔ)

  • 2.1.2. 數(shù)據(jù)來(lái)源廣泛:傳感器、文本、視頻、圖像等

  • 2.1.3. 凡是你能看到或想到的事物,大都會(huì)留下信息痕跡

  • 2.1.4. 當(dāng)你填寫驗(yàn)證碼時(shí),遇到“點(diǎn)擊包含自行車的方塊”這類指令,其實(shí)就是在進(jìn)行數(shù)據(jù)標(biāo)注(這些數(shù)據(jù)通常會(huì)被用于訓(xùn)練人工智能)

  • 2.1.5. 更先進(jìn)的模型通常不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注

2.2. 算法部署

  • 2.2.1. 將算法應(yīng)用于數(shù)據(jù)

  • 2.2.2. 監(jiān)督學(xué)習(xí):模型在帶有標(biāo)注的數(shù)據(jù)集中進(jìn)行訓(xùn)練,通過(guò)學(xué)習(xí)數(shù)據(jù)來(lái)做出預(yù)測(cè)

  • 2.2.3. 無(wú)監(jiān)督學(xué)習(xí):模型在無(wú)標(biāo)注的數(shù)據(jù)中進(jìn)行訓(xùn)練,任務(wù)是發(fā)現(xiàn)其中的模式

  • 2.2.4. 強(qiáng)化學(xué)習(xí)算法:模型在實(shí)際環(huán)境中運(yùn)行,通過(guò)接收對(duì)其行為的反饋來(lái)持續(xù)學(xué)習(xí)

  • 2.2.5. “Transformer”架構(gòu)

    • 2.2.5.1. 2017年,谷歌的一組研究人員在題為《注意力就是一切》(Attention is all you need)的論文中,首次向世界公開了這一架構(gòu)

    • 2.2.5.2. GPT和BERT(Bidirectional Encoder Representations from Transformers)是目前最常見(jiàn)的兩種Transformer模型

    • 2.2.5.3. Transformer模型屬于自然語(yǔ)言處理(Natural Language Processing,NLP)技術(shù)的一個(gè)分支

2.3. 改進(jìn)與優(yōu)化

  • 2.3.1. 模型部署完成后,下一步就是對(duì)其進(jìn)行優(yōu)化和評(píng)估

2.4. 應(yīng)用場(chǎng)景定義

  • 2.4.1. 預(yù)測(cè)分析、內(nèi)容生成、接收與解讀提示詞等

2.5. 反饋與改進(jìn)

  • 2.5.1. 模型需要持續(xù)的改進(jìn)、優(yōu)化、監(jiān)控和微調(diào)

  • 2.5.2. 這一過(guò)程可通過(guò)自動(dòng)化方式進(jìn)行,也可借助人工輸入完成,理想情況下則是兩者結(jié)合

  • 2.5.3. 自動(dòng)化改進(jìn)指的是利用新數(shù)據(jù)集對(duì)模型進(jìn)行更新

  • 2.5.4. 人工輸入則涉及人類通過(guò)與模型的輸出進(jìn)行交互,就模型的準(zhǔn)確性或?qū)嵱眯蕴峁┓答?/p>

2.6. 實(shí)際部署

  • 2.6.1. 將人工智能模型應(yīng)用于業(yè)務(wù)實(shí)踐—通常稱為“工作流程”,需要格外謹(jǐn)慎和用心

3. 幫助

3.1. 通用技術(shù)的核心特征就在于其普適性

3.2. 要理解人工智能如何為你提供幫助,就要先深入了解人工智能的各種組件和技術(shù),它們共同構(gòu)成了所謂的“價(jià)值鏈”

3.3. 人工智能的實(shí)現(xiàn),依賴于計(jì)算機(jī)從數(shù)據(jù)中識(shí)別模式和關(guān)系的能力

  • 3.3.1. 處于人工智能價(jià)值鏈最底層的,是使一切成為可能的基礎(chǔ)設(shè)施,即所謂的“計(jì)算”能力

  • 3.3.2. 這種能力來(lái)源于搭載了圖形處理器(Graphics Processing Unit,GPU,一種硅基計(jì)算機(jī)芯片)芯片的硬件,而這類芯片是訓(xùn)練人工智能模型的必需組件

3.4. 側(cè)重于內(nèi)容生成,生成的內(nèi)容可以是文本、圖像、音頻,甚至是復(fù)雜的視頻

3.5. 人工智能可以為幾乎所有工作提供支持,除了那些必須由人力完成的任務(wù)

3.6. 直接使用前沿模型,如Gemini或GPT-4

  • 3.6.1. 用戶可以通過(guò)輸入“提示詞”,讓模型執(zhí)行某個(gè)任務(wù)

  • 3.6.2. 提示詞越詳細(xì),得到的回復(fù)就越有用。這種用法的成本要么為零(如果你使用免費(fèi)版本),要么僅為模型的許可費(fèi)用

3.7. 用自有數(shù)據(jù)訓(xùn)練開源模型

  • 3.7.1. 如今可用的開源模型越來(lái)越多,像Meta等公司已向公共領(lǐng)域發(fā)布了其前沿模型的精簡(jiǎn)版,這個(gè)更具針對(duì)性的版本可以滿足企業(yè)客戶的特定用途

  • 3.7.2. 這種方式的成本通常極高,因?yàn)槠髽I(yè)需要具備數(shù)據(jù)工程能力來(lái)訓(xùn)練模型,并將其部署在自有的云環(huán)境中

  • 3.7.3. 優(yōu)勢(shì)在于模型是基于自有數(shù)據(jù)訓(xùn)練的,理論上可以更貼合企業(yè)自身的需求

3.8. 在封閉的云環(huán)境中訓(xùn)練前沿模型

  • 3.8.1. 在亞馬遜云科技(Amazon Web Service,AWS)套件中,Amazon SageMaker[插圖]是一個(gè)頗受歡迎的機(jī)器學(xué)習(xí)工具

  • 3.8.2. 如果用戶把數(shù)據(jù)存儲(chǔ)在AWS環(huán)境中,就可以用這些數(shù)據(jù)訓(xùn)練亞馬遜提供的模型,并根據(jù)自身的數(shù)據(jù)和運(yùn)營(yíng)環(huán)境對(duì)模型進(jìn)行微調(diào)(即優(yōu)化)

3.9. 使用針對(duì)特定任務(wù)的窄域人工智能代理

  • 3.9.1. 聊天機(jī)器人是其中發(fā)展最為迅猛的一種代理類型,常被用作WhatsApp等平臺(tái)上的客戶服務(wù)工具

  • 3.9.2. 通?;谳^小的大語(yǔ)言模型構(gòu)建,但會(huì)針對(duì)特定受眾或行業(yè)進(jìn)行定制

  • 3.9.3. 用戶既可以使用第三方開發(fā)的通用人工智能代理,也可以基于某個(gè)前沿模型自行創(chuàng)建

3.10. 要想從人工智能中獲益,最佳方法是思考如何將解決方案與你的工作流程相結(jié)合

  • 3.10.1. 解決方案可以是橫向的,也可以是縱向的

    • 3.10.1.1. 工作流程映射是一種很棒的技術(shù),能幫助你理解橫向轉(zhuǎn)型和縱向轉(zhuǎn)型的區(qū)別
  • 3.10.2. 橫向解決方案指的是能徹底改變端到端完整工作流程的方案

    • 3.10.2.1. 人工智能已顯著改變了端到端工作流程里很大一部分運(yùn)營(yíng)模式,使得人工幾乎不參與這一過(guò)程
  • 3.10.3. 縱向解決方案是指選取工作流程中的某一環(huán)節(jié),利用人工智能工具對(duì)其進(jìn)行優(yōu)化

    • 3.10.3.1. 醫(yī)生在診治患者時(shí),可能會(huì)使用一種基于人工智能的癌癥治療臨床決策工具

    • 3.10.3.2. 可以加快診斷流程,從而改善工作流程中的重要步驟,即縱向環(huán)節(jié),但未必會(huì)改變整個(gè)端到端的工作流程

    • 3.10.3.3. 人工智能工具正在成為臨床醫(yī)生的“副駕駛”,它們能夠提供分析,在癌癥診療領(lǐng)域幫助醫(yī)生做出更明智的決策

  • 3.10.4. 在全新環(huán)境下使用人工智能,還是在充滿遺留問(wèn)題的傳統(tǒng)環(huán)境下使用

4. 數(shù)據(jù)科學(xué)

4.1. 數(shù)據(jù)科學(xué)及相關(guān)的人工智能領(lǐng)域,曾多次掀起熱潮

4.2. 圖靈提出了著名的“圖靈測(cè)試”,該測(cè)試認(rèn)為,若一臺(tái)機(jī)器能讓人誤以為它是人類,那么這臺(tái)機(jī)器就具備了人類水平的智能

4.3. 人工智能關(guān)鍵發(fā)展簡(jiǎn)史

  • 4.3.1. 1950年:艾倫·圖靈提出圖靈測(cè)試,用于判斷機(jī)器是否能展現(xiàn)出人類水平的智能

  • 4.3.2. 1956年:達(dá)特茅斯會(huì)議(The Dartmouth Conference)召開,“人工智能”誕生—這一術(shù)語(yǔ)由美國(guó)計(jì)算機(jī)科學(xué)家約翰·麥卡錫(John McCarthy)首次提出

  • 4.3.3. 1966年:首款聊天機(jī)器人ELIZA問(wèn)世,其核心技術(shù)為自然語(yǔ)言處理

  • 4.3.4. 1972年:PROLOG語(yǔ)言誕生,該語(yǔ)言在計(jì)算語(yǔ)言學(xué)領(lǐng)域影響深遠(yuǎn),對(duì)人工智能研究而言至關(guān)重要

  • 4.3.5. 1980年代:專家系統(tǒng)興起,這類系統(tǒng)可輔助決策,在醫(yī)療和金融領(lǐng)域應(yīng)用尤為廣泛

  • 4.3.6. 1987—1993年:“人工智能寒冬”來(lái)臨,人們對(duì)人工智能的關(guān)注度下降,相關(guān)資金投入亦隨之縮減

  • 4.3.7. 1997年:IBM的“深藍(lán)”(Deep Blue)擊敗國(guó)際象棋大師加里·卡斯帕羅夫(Garry Kasparov)

  • 4.3.8. 2006年:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)復(fù)興,研究表明可借助圖形處理器訓(xùn)練這些模型;此項(xiàng)開創(chuàng)性工作由如今的諾貝爾獎(jiǎng)得主杰弗里·辛頓(Geoffrey Hinton)及其團(tuán)隊(duì)主導(dǎo)

  • 4.3.9. 2011年:IBM的沃森(Watson)在《危險(xiǎn)邊緣》(Jeopardy!)智力競(jìng)賽中奪冠,展現(xiàn)了自然語(yǔ)言處理領(lǐng)域的巨大進(jìn)步

  • 4.3.10. 2012年:通過(guò)深度卷積神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域取得突破性進(jìn)展

  • 4.3.11. 2014年:谷歌旗下的深度思維公司(DeepMind)利用深度強(qiáng)化學(xué)習(xí)技術(shù),開發(fā)出能玩雅達(dá)利(Atari)游戲的人工智能

  • 4.3.12. 2016年:AlphaGo擊敗圍棋世界冠軍李世石(Lee Sedol),鑒于圍棋的復(fù)雜性與對(duì)直覺(jué)的依賴,這一事件成為重要里程碑

  • 4.3.13. 2017年:Transformer模型問(wèn)世,為自然語(yǔ)言處理領(lǐng)域帶來(lái)了革命性變革

  • 4.3.14. 2018年:谷歌發(fā)布BERT模型,該模型能同時(shí)結(jié)合上下文雙向信息,推動(dòng)了自然語(yǔ)言處理任務(wù)的發(fā)展

  • 4.3.15. 2019年:OpenAI推出GPT-2,表明在大規(guī)模數(shù)據(jù)集上訓(xùn)練的語(yǔ)言模型能夠生成高質(zhì)量且貼合語(yǔ)境的內(nèi)容

  • 4.3.16. 2021年:多模態(tài)人工智能取得進(jìn)展,DALL·E可根據(jù)文本描述生成圖像

  • 4.3.17. 2022年:10月,OpenAI推出ChatGPT,并迅速走入大眾視野,激發(fā)了廣泛關(guān)注與想象

  • 4.3.18. 2024年:芯片制造商英偉達(dá)(NVIDIA)市值突破3萬(wàn)億美元,成為全球第二大公司,彰顯出人工智能需求已進(jìn)入新的爆發(fā)期

4.4. 關(guān)鍵因素

  • 4.4.1. 消費(fèi)設(shè)備、攝像頭、手機(jī)、傳感器等會(huì)持續(xù)產(chǎn)生海量數(shù)據(jù),數(shù)據(jù)可獲取量達(dá)到前所未有的水平

  • 4.4.2. 隨著磁盤存儲(chǔ)(適合大容量數(shù)據(jù)存儲(chǔ),但訪問(wèn)速度較慢)和隨機(jī)存取存儲(chǔ)器(Random Access Memory,RAM,更便于數(shù)據(jù)訪問(wèn))等技術(shù)的發(fā)展,數(shù)據(jù)存儲(chǔ)成本有所下降

  • 4.4.3. 計(jì)算機(jī)處理成本大幅降低—這里的處理包括數(shù)據(jù)匹配、計(jì)數(shù)、比較,以及對(duì)數(shù)據(jù)應(yīng)用簡(jiǎn)單的條件規(guī)則等任務(wù)

  • 4.4.4. 云計(jì)算的興起使幾乎所有組織都能利用“大數(shù)據(jù)”并應(yīng)用數(shù)據(jù)科學(xué)技術(shù),而無(wú)需投資建設(shè)昂貴的大規(guī)模物理數(shù)據(jù)基礎(chǔ)設(shè)施(如今稱為“本地服務(wù)器”)

4.5. 數(shù)據(jù)科學(xué)在棒球、算法金融交易、政治選舉等領(lǐng)域的高調(diào)應(yīng)用,進(jìn)一步提升了它的關(guān)注度

4.6. 圖形處理器的驚人進(jìn)步,它能通過(guò)微型電路處理海量數(shù)據(jù)

4.7. Transformer模型的研發(fā),這一模型促成了詞元(token,即文本的基本處理單位)預(yù)測(cè)系統(tǒng)的發(fā)展,而該系統(tǒng)正是大語(yǔ)言模型和擴(kuò)散模型的基礎(chǔ)

4.8. “FLOPs”(Floating Point Operations per Second,每秒浮點(diǎn)運(yùn)算次數(shù))用于統(tǒng)計(jì)處理器每秒能執(zhí)行的浮點(diǎn)算術(shù)運(yùn)算次數(shù),實(shí)際上是一種衡量計(jì)算性能的指標(biāo)

  • 4.8.1. 浮點(diǎn)算術(shù)運(yùn)算包括加、減、乘、除,這些都是生成式人工智能模型完成任務(wù)的核心操作

4.9. 隨著規(guī)模擴(kuò)大,幻覺(jué)率問(wèn)題已得到快速改善

  • 4.9.1. GPT-3.5的幻覺(jué)率為10%~20%

  • 4.9.2. GPT-4o的幻覺(jué)率為2.5%

4.10. 當(dāng)前使用的人工智能,在未來(lái)幾個(gè)月內(nèi)理應(yīng)變得更強(qiáng)大

4.11. 即便當(dāng)下的人工智能尚不完善,為未來(lái)的人工智能發(fā)展做好準(zhǔn)備也很可能是一項(xiàng)回報(bào)豐厚的戰(zhàn)略投資

4.12. Epoch AI是一個(gè)出色的研究資源庫(kù),專門追蹤最新模型背后不斷增長(zhǎng)的計(jì)算能力

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容