
榴蓮忘返 2014
大語言模型(LLM)能像初級研究員一樣,高效篩選“老藥新用”的潛在機會,但前提是你得像個老手一樣,知道該怎么“問”它。
- 模型分工不同:GPT-4o 像個嚴謹?shù)膶<遥雀叩赡苠e過黑馬;DeepSeek 則更像個富有創(chuàng)造力的探索者,召回率高,適合在早期探索中大海撈針。
- 提問的藝術是關鍵:直接問 AI 等于白問。通過精心設計的提示(Prompt),特別是“思維鏈”和“少樣本”策略,才能把 AI 的潛力真正壓榨出來。
- AI 不是先知,是文獻大師:在有據(jù)可查的經(jīng)典案例上,AI 表現(xiàn)近乎完美,證明它只是“博覽群書”,而不是在進行真正的從零到一的推理。
我們手頭有一堆經(jīng)過了安全性驗證的“老藥”,理論上,只要找到它們和新疾病之間隱藏的聯(lián)系,就能跳過漫長又燒錢的早期研發(fā)階段,直接抄近道。問題是,從數(shù)千種藥物和疾病中找出這種聯(lián)系,無異于大海撈針,能把人活活累死。
所以,很多人把希望寄托在 AI 身上。這篇預印本論文想看看,現(xiàn)在火得一塌糊涂的大語言模型(LLM),能不能扮演一個藥物研發(fā)“審稿人”的角色,幫我們從一大堆假設里篩出那些靠譜的候選者。
研究者們先用生物通路分析,一口氣生成了兩萬多個“藥物 - 疾病”的配對假設。這就像是開了一個巨大的腦洞清單。然后,他們挑出 30 個有代表性的例子,扔給 GPT-4o、DeepSeek 這些當紅 AI,問它們:“嘿,你覺得這個想法行不行?”
結(jié)果相當有意思。不同的 AI 表現(xiàn)出了不同的“性格”。GPT-4o 的準確率最高,達到了 83%,像個經(jīng)驗豐富、下結(jié)論十分謹慎的評審,它說行的,基本都錯不了。但它的問題是可能有點保守,會漏掉一些有潛力的“非共識”機會。而國產(chǎn)的 DeepSeek,在召回率上表現(xiàn)驚人(92%),它更像一個熱情洋溢、想象力豐富的年輕科學家,能給你撈出一大堆可能性,當然里面也混著不少需要你費心去偽存真的沙子。在藥物發(fā)現(xiàn)的早期階段,我們寧可錯殺一千,不可放過一個,所以 DeepSeek 這種高召回率的特性,價值千金。
更有趣的發(fā)現(xiàn)是,怎么向 AI 提問,幾乎決定了你能得到什么水平的答案。如果你只是簡單粗暴地把問題丟給它(所謂的“零樣本”),那它返回的結(jié)果基本沒法看??梢坏┠阌蒙弦恍昂谠挕薄热纭八季S鏈”(Chain-of-Thought),強迫它一步步把思考過程寫出來,或者給它幾個成功的范例(Few-shot),它的表現(xiàn)就會脫胎換骨。這說明,跟 AI 打交道,你不能把它當成一個無所不知的神,而要把它當成一個需要循循善誘、需要清晰指令的學生。
研究者還做了一個“完整性檢查”(sanity check)。他們找了 10 個業(yè)內(nèi)公認的、寫進教科書的“老藥新用”成功案例去考 AI。果不其然,GPT-4o 和 DeepSeek 幾乎拿了滿分。這反倒說明了一個“殘酷”的真相:LLM 的強大,很大程度上源于它“讀過”海量的現(xiàn)有文獻。它不是在進行從第一性原理出發(fā)的科學推理,而是在龐大的數(shù)據(jù)庫里做最強模式匹配。
一個絕佳的例子是,AI 準確判斷出鈣通道阻滯劑維拉帕米(verapamil)可以用于治療糖尿病,因為文獻里有支持。同時,它也正確地否決了將抗癌藥紫杉醇(paclitaxel)用于治療肥胖癥的提議。盡管兩者在生物通路上有交集,但 AI(在正確的引導下)似乎理解了“用細胞毒性藥物去治慢性病,這在臨床上就是個笑話”這種級別的常識。這讓人看到了一絲超越簡單文本匹配的“醫(yī)學直覺”的曙光。
那么,我們是不是可以解雇研發(fā)團隊,換上一堆服務器了?當然不行。AI 的“幻覺”問題依然存在,它會一本正經(jīng)地胡說八道,甚至給你編造根本不存在的參考文獻。所以,現(xiàn)階段,LLM 最好的定位是一個能力超強、不知疲倦的實習生。它能幫你把浩如煙海的文獻資料梳理一遍,把最值得關注的點標出來,讓你從繁瑣的案頭工作里解放出來。但最終拍板、驗證、推進項目的,還得是屏幕前那個擁有真正智慧和經(jīng)驗的人類。
??Title: Accelerating Drug Repurposing with AI: The Role of Large Language Models in Hypothesis Validation ??Paper: https://www.biorxiv.org/content/10.1101/2025.06.13.659527v1 ??Code: https://github.com/iratxe-zunzunegui/drug-repurposing-validation-LLMs