
最近有人問我:你天天用AI,寫東西做規(guī)劃是不是點(diǎn)一下鼠標(biāo)就行了?
我的回答恰恰相反:我現(xiàn)在用AI越多,膽子越小。
不是因為AI笨。恰恰是因為它太"聰明"了——它會觀察你的喜好,翻看你之前的對話,然后給你量身定制一個"合理的答案"。
看起來頭頭是道,邏輯閉環(huán),甚至語氣都像你自己的。但你仔細(xì)一查,可能根本不存在。
這才是AI最讓人后怕的地方——不是它錯了,而是它看起來是對的。
整理700頁手稿時踩到的坑
我正在做的一件事:把過去寫的一百多篇文章整理成書。
在此之前,我把過去寫的一百多篇文章整理到一個PDF文件中了,共有700多頁。要全部整理出來進(jìn)行邏輯重構(gòu),這個工作量不小,我讓AI來幫忙。
過程中踩了幾個坑。
第一個坑:AI給我"編"了一篇文章。
因為同一時間我還在研究另一個完全不相關(guān)的課題——焊接智能體。但我不存在關(guān)于焊接智能體的經(jīng)營管理經(jīng)歷,只是研究而已。
兩個任務(wù)在Gemini的同一個工作環(huán)境的不同對話框里跑,但沒有任何關(guān)系。結(jié)果AI在讀取了我的PDF源文件之后,竟然在我的管理書籍目錄中信誓旦旦地塞進(jìn)了一篇——《船舶焊接經(jīng)營管理實(shí)踐》。
我當(dāng)時盯著這個標(biāo)題愣了一下,PDF源文件中有這篇文章嗎?我的管理體系文章都是來源于我真實(shí)的經(jīng)歷,因為真實(shí)才讓我踏實(shí),關(guān)于船舶焊接的管理經(jīng)歷是虛構(gòu)的。
可是它寫得太像真的了。標(biāo)題的命名方式跟我的風(fēng)格一模一樣,結(jié)構(gòu)完整,連那種只有我自己會用的"行業(yè)味"都模擬得很到位。
AI在沒有任何人要求的情況下,自己做了判斷,把兩個不相關(guān)的課題關(guān)聯(lián)在一起,面不改色地替我編了一段不存在的歷史。在AI的邏輯里這叫"上下文關(guān)聯(lián)",在我的系統(tǒng)里這叫"污染"。如果我當(dāng)時手一抖覺得"好像有這回事",這篇假文章就進(jìn)了書籍底稿。等書發(fā)表出來被人翻到,那就不是尷尬,是信譽(yù)事故。
第二個坑:AI自以為是地"偷懶"。
七百多頁的資料,AI處理到中間就開始簡化。它把我文中一些感性的金句——比如《成功的路上并不擁擠》——直接提煉成一級標(biāo)題,當(dāng)成文章的核心觀點(diǎn)。
AI覺得自己在歸納總結(jié)。但一篇文章的核心觀點(diǎn)應(yīng)該由論述邏輯來決定,而不是抓一句最有傳播力的金句往上放。如果按這個錯誤地圖走下去,我的知識庫會變成一堆漂亮標(biāo)題的拼湊,找不回原始的邏輯脈絡(luò)。
還有一類問題更隱蔽:AI會按照它自己的邏輯去"優(yōu)化"你的東西,改完了還渾然不覺。我已經(jīng)不止一次遇到過,確認(rèn)了某段邏輯是對的,結(jié)果AI在后續(xù)步驟里覺得"可以更好",自作主張改了一版,改完反而錯了。
這些問題有一個共同點(diǎn):它們看起來都對。你如果不夠仔細(xì),根本發(fā)現(xiàn)不了。
不讓任何一個AI自己說了算
踩了這些坑之后,我做了一件事:不讓任何一個AI自己說了算。
我的工作流里有三個角色同時跑:Gemini、ChatGPT,還有一個基于我書籍大綱和頁碼索引搭建的智能體框架WorkBuddy。
Gemini和ChatGPT負(fù)責(zé)大規(guī)模掃描和邏輯推演——干活快,但偶爾會撒謊。智能體框架是我的"審計標(biāo)準(zhǔn)",運(yùn)行在我自己定義的規(guī)則之內(nèi),只認(rèn)索引,不認(rèn)關(guān)系。
我不怎么看它們各自輸出了什么漂亮的東西。我看的是它們之間的沖突。只要兩個模型結(jié)論不一致,或者結(jié)果跟索引規(guī)則對不上,系統(tǒng)就報警。我不判斷誰對誰錯,直接回撤到原始PDF源文件去對賬。
這辦法笨,但管用。你沒辦法讓一個AI絕對誠實(shí),但你可以讓兩個AI互相揭穿。
自己定了三條硬規(guī)矩
操作多了之后,沉淀下來三條硬規(guī)矩:
第一,AI說不清來源的內(nèi)容,一律當(dāng)它是編的。
別指望AI幫你"概括",那往往是它在自我發(fā)揮。我下指令時強(qiáng)行要求:每一處引用必須附帶原文頁碼和行號。說不清從哪一頁來的,寫得再精彩也直接刪掉。
第二,兩個結(jié)果對不上,就一定有問題。
我從不聽信一家之言。只要兩個模型在某個細(xì)節(jié)上對不上,我不花時間判斷誰對誰錯,直接翻原始文件。不一致,邏輯就一定有縫隙。
第三,確認(rèn)正確的版本,立刻鎖死。
這個規(guī)矩是被"坑"出來的。確認(rèn)了某段邏輯是對的,AI后續(xù)覺得"可以更好"就自作主張改一版,改完反而錯——這種情況發(fā)生了太多次。現(xiàn)在我的死規(guī)定是:一旦確認(rèn),立刻鎖死,后面所有推演必須基于已鎖定版本,不允許任何"優(yōu)化"。
寫出80分已經(jīng)不值錢了
在AI時代,點(diǎn)一下鼠標(biāo)讓AI幫你寫一篇看起來還不錯的文章,這件事已經(jīng)沒有門檻了。
真正值錢的能力,是 "定義標(biāo)準(zhǔn)" 和 "審計邏輯"。
誰都可以讓AI跑起來,但不是誰都能在七百多頁的材料里,一眼抓出那個"看起來很像真的"的謊言。這件事聽起來很慢,但在經(jīng)營上,慢就是快。只有每一行邏輯都是實(shí)的,你的系統(tǒng)才敢跑在高速上。
我現(xiàn)在正在把這套方法論固化成一個"內(nèi)容生產(chǎn)工廠"——不同的角色用不同的底座模型,讓它們在工廠內(nèi)部互相博弈、互相校驗。等這套東西跑通了,也許它會變成一個真正可用的產(chǎn)品。
在那之前,記住一句話:
AI不會騙你,它只是會把你"希望它是真的"的東西,說得越來越像真的。如果你不去驗證,最后做決定的人,其實(shí)不是你。
觀點(diǎn)來自奔流十八年的EMOS方法論:O層(輸出儀表盤)的核心不只是"看結(jié)果",更是"審計結(jié)果的確定性"。當(dāng)AI成為你的輸出引擎,O層的職責(zé)就從"監(jiān)測健康"升級為"驗證真?zhèn)?——不信任單一信源,用對沖機(jī)制消除幻覺,才是AI時代的經(jīng)營基本功。