1.簡介
自阿里云推出基于通義大模型的智能編程助手——通義靈碼以來,這款AI驅動的開發(fā)工具猶如一匹行業(yè)黑馬,以革命性的智能編碼能力迅速俘獲廣大開發(fā)者的青睞。作為首款實現全棧智能輔助的國產編碼助手,它不僅為個人開發(fā)者打造了專屬的"第二大腦",更在團隊協(xié)作層面重構了軟件研發(fā)效能體系,持續(xù)推動著軟件開發(fā)行業(yè)的智能化變革。有幸作為其早期用戶,我親歷了這款工具從鋒芒初露到日臻完善的蛻變歷程。
在這一年間,通義靈碼的迭代軌跡堪稱AI賦能開發(fā)的典范樣本:從最初驚艷業(yè)界的代碼片段生成與智能補全,到支持多模態(tài)交互的智能問答系統(tǒng);從跨語言的項目架構智能解析,到自動化測試用例生成與性能調優(yōu)建議;從類庫文檔的智能檢索到UML時序圖自動生成,每一次版本更新都是對"智能開發(fā)"概念的重新定義。更值得一提的是其最新推出的"研發(fā)大腦"功能,通過深度理解項目上下文,實現了從需求分析到部署上線的全流程智能伴航,標志著AI輔助開發(fā)正式步入全鏈路智能化新紀元。
通義靈碼的1.0和2.0,宏哥都有幸參加了評測和體驗,2.5版本叒更新新功能,宏哥怎么可能缺席了,下面跟隨宏哥來一睹為快,快來嘗嘗鮮~
2.產品介紹
**通義靈碼 4 月發(fā)布了編程智能體,可以根據開發(fā)者的編碼任務描述,使用工程檢索、文件編輯、終端等工具,進行工程內多個文件的修改,端到端地完成編碼任務。 同時,升級了智能會話的模型服務,新增 Qwen3 系列模型。**
**通義靈碼 2.5 版發(fā)布上線,支持 Qwen3,全新上線智能體模式,具備自主決策、工程和記憶自感知、工具使用等能力,集成魔搭MCP廣場,3000+MCP工具一鍵安裝使用。**
**我們一起來看看這次 2.5 版本的全新功能。**
?3.全新功能
** 通義靈碼2.5 版本的全新功能,主要有以下五個方面:**
1. 新增智能體模式:新增智能體模式,具備自主決策、環(huán)境感知、工具使用等能力,可以根據開發(fā)者的編碼訴求,使用工程檢索、文件編輯、終端等工具,可以端到端地完成編碼任務。同時,支持開發(fā)者配置 MCP 工具,編碼更加貼合開發(fā)者工作流程。同時,支持同一個會話流中切換智能問答、文件編輯、智能體模式,開發(fā)者在會話過程中,無需新建會話即可根據訴求自由切換會話模式。
2. MCP生態(tài)集成:通義靈碼編程智能體支持 MCP 工具使用,根據用戶需求描述,通過模型自主規(guī)劃,實現 MCP 工具調用,并深度集成國內最大的 MCP 中文社區(qū)——魔搭 MCP 廣場,涵蓋開發(fā)者工具、文件系統(tǒng)、搜索、地圖等十大熱門領域 2400+ MCP 服務,支持一鍵安裝。全面拓寬 AI 編碼助手能力邊界,更加貼合開發(fā)者工作流程。
3. 新增長期記憶與感知能力:新增長期記憶能力,在開發(fā)者與靈碼的對話過程,會逐漸形成針對開發(fā)者個人、工程、問題等相關的豐富記憶,并自動進行相關的記憶整理和更新。記憶能力可以幫助通義靈碼更好地和開發(fā)者互動,隨著時間流逝,也能夠讓通義靈碼越來越懂開發(fā)者。
4. Qwen3模型加持:通義靈碼現在已全面支持 Qwen3,Qwen3 采用混合專家(MoE)架構,總參數量 235B,激活僅需 22B。其中參數量僅為 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球頂尖模型。Qwen3 還是國內首個“混合推理模型”,“快思考”與“慢思考”集成進同一個模型,對簡單需求可低算力“秒回”答案,對復雜問題可多步驟“深度思考”,大大節(jié)省算力消耗。代碼生成準確率提升顯著,支持更長上下文理解。
5. 上下文支持工程目錄、文件多選:在智能會話中,上下文新增支持工程目錄,可以讓開發(fā)者針對某個功能模塊進行提問或修改。同時,優(yōu)化上下文選擇交互,對于 `#file` 、 `#folder`、`#gitCommit`、 `#teamDocs`,選擇對應類型后,可進行具體內容的檢索和選擇,并針對該類內容支持多選操作。
6. 個人版支持阿里云國際站賬號登錄:通義靈碼國際站開服,支持阿里云國際站賬號登錄,海外開發(fā)者在 VS Code、JetBrains IDE 中安裝通義靈碼插件后,可直接使用阿里云國際站賬號登錄即可開始使用通義靈碼。
7. 企業(yè)專屬版上線國際站,支持新加坡、馬來西亞等地域:企業(yè)專屬版上線國際站,并上線相關購買鏈路,企業(yè)客戶可選擇新加坡、馬來西亞、中國上海地域購買。
8. 企業(yè)版支持多模型配置:企業(yè)標準版、企業(yè)專屬版的管理員可以配置多個推理模型服務,并支持配置企業(yè)開發(fā)者在插件端可選擇的模型選項。
3.1三種模式滿足不同研發(fā)場景訴求
**通義靈碼新版本提供智能問答、文件編輯、智能體三種模式,**支持同一個會話流中切換智能問答、文件編輯、智能體模式,開發(fā)者在會話過程中,無需新建會話即可根據訴求自由切換會話模式。
> **文件編輯模式為原 AI 程序員模塊,可在 VS Code、JetBrains IDEs 中,將通義靈碼插件升級到 2.5.0 或以上版本后體驗。**
3.1.1智能問答
**若開發(fā)者聚焦于代碼解析、技術咨詢、知識問答等輕量級交互場景場景,可以選擇智能問答模式,該模式下,AI 會基于你選定的上下文即時給出回答,不會對工程文件進行任何修改。**
3.1.1.1知識問答
1.宏哥選擇模式:智能問答,模型:Qwen3 ,如下圖所示:

2.輸入提示詞:當期日期,今天北京的天氣情況,如下圖所示:

3.將qwen3模型換成:qwen2.5-max或者deepseek,再次提問,如下圖所示:

3.1.1.2代碼閱讀
1.宏哥選擇模式:智能問答,模型:Qwen3 ,如下圖所示:

2.宏哥選擇模式:智能問答,模型:非Qwen3 ,如下圖所示:

3.1.1.3不同模型的對比
1.宏哥在體驗過程中,發(fā)現qwen3的模型比其他模型的響應速度要快很多,但是qwen3的當前時間或者今天日期的響應不準確。如下圖所示:

2.但是宏哥重啟編輯器,重新登錄通義靈碼后,再次提問,有正常了,如下圖所示:

3.1.2文件編輯(原AI程序員)
**如果希望 AI 根據你的需求對所選上下文中的文件進行局部修改,例如增加注釋、新增小功能、或進行頁面局部優(yōu)化等場景,可選擇文件編輯模式。該模式要求你提供準確的上下文信息和清晰的需求描述,AI 將高效完成執(zhí)行。其優(yōu)勢在于生成速度快,但不會進行多步推理或主動探索工程結構。這部分宏哥在2.0的版本中已經體驗過,這里就不再贅述,有興趣的小伙伴或者童鞋們,可以查看宏哥之前發(fā)布的文章。**
3.1.3智能體
**如果希望 AI 完成較為復雜的任務,例如新增功能、修復缺陷、代碼重構、生成單元測試,甚至需要調用多個 MCP 工具協(xié)同完成時,可以選擇 智能體模式。該模式能夠自主理解需求,與你溝通確認細節(jié),并通過多步驟思考和工具調用,對本地工程進行深入分析與操作,從而完成復雜任務(耗時相對較長)。**
3.1.3.1編程智能體,越用越得心應手
**通義靈碼新增智能體模式,具備自主決策、環(huán)境感知、工具使用等能力,可以根據開發(fā)者的編碼訴求,使用工程檢索、文件編輯、終端等工具,可以端到端地完成編碼任務。同時,支持開發(fā)者配置 MCP 工具,編碼更加貼合開發(fā)者工作流程。這個編程智能體。以前寫代碼,得自己一步步喂提示詞(需求),然后才能寫代碼、寫邏輯,現在通義靈碼直接能根據我的描述,自動感知項目的技術棧,生成代碼文件,還能在終端里執(zhí)行命令。我試了試,給一個項目加了個新功能模塊,智能體直接就搞定了,這效率提升可不是一星半點!如下圖所示:**

3.1.3.2終端運行命令
智能體模式可根據當前需求自主決策進行終端命令編寫與執(zhí)行,為保障命令執(zhí)行的確定性,默認每次執(zhí)行命令前需要開發(fā)者進行確認:
* 單擊運行按鈕,智能體會將命令發(fā)送到 IDE 的 Terminal 窗口進行運行;
* 單擊取消按鈕,將跳過此次命令執(zhí)行,智能體將根據開發(fā)者的反饋繼續(xù)進行下一步規(guī)劃。
如下圖所示:


3.2MCP工具廣場
通義靈碼編程智能體支持 MCP 工具使用,根據用戶需求描述,通過模型自主規(guī)劃,實現 MCP 工具調用,并深度集成國內最大的 MCP 中文社區(qū)——魔搭 MCP 廣場,涵蓋開發(fā)者工具、文件系統(tǒng)、搜索、地圖等十大熱門領域 2400+ MCP 服務,全面拓寬 AI 編碼助手能力邊界,更加貼合開發(fā)者工作流程。
3.2.1MCP 服務配置與使用
1.單擊**通義靈碼歡迎語中的 **MCP 工具鏈接,或在右上角頭像處進入**個人設置,單擊MCP服務已連接的條形框,進入 **MCP 服務頁面。如下圖所示:



3.3新增長期記憶能力
新增長期記憶能力,在開發(fā)者與靈碼的對話過程,會逐漸形成針對開發(fā)者個人、工程、問題等相關的豐富記憶,并自動進行相關的記憶整理和更新。記憶能力可以幫助通義靈碼更好地和開發(fā)者互動,隨著時間流逝,也能夠讓通義靈碼越來越懂開發(fā)者。如下圖所示:


3.4上下文支持工程目錄、文件多選
在智能會話中,上下文新增支持工程目錄,可以讓開發(fā)者針對某個功能模塊進行提問或修改。同時,優(yōu)化上下文選擇交互,對于`#file` 、`#folder`、`#gitCommit`,選擇對應類型后,可進行具體內容的檢索和選擇,并針對該類內容支持多選操作。如下圖所示:

3.5新增支持 Qwen3 系列模型
通義靈碼現在已全面支持 Qwen3,Qwen3 采用混合專家(MoE)架構,總參數量 235B,激活僅需 22B。其中參數量僅為 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球頂尖模型。Qwen3 還是國內首個“混合推理模型”,“快思考”與“慢思考”集成進同一個模型,對簡單需求可低算力“秒回”答案,對復雜問題可多步驟“深度思考”,大大節(jié)省算力消耗。如下圖所示:

3.6個人版支持阿里云國際站賬號登錄
通義靈碼國際站開服,支持阿里云國際站賬號登錄,海外開發(fā)者在 VS Code、JetBrains IDE 中安裝通義靈碼插件后,可直接使用阿里云國際站賬號登錄即可開始使用通義靈碼。如下圖所示:

3.7專屬版上線國際站,支持新加坡、馬來西亞等地域
企業(yè)專屬版上線國際站,并上線相關購買鏈路,企業(yè)客戶可選擇新加坡、馬來西亞、中國上海地域購買。如下圖所示:

?3.8企業(yè)版支持多模型配置
企業(yè)標準版、企業(yè)專屬版的管理員可以配置多個推理模型服務,并支持配置企業(yè)開發(fā)者在插件端可選擇的模型選項。如下圖所示:

4.體驗感受
通義靈碼 2.5 版針對不同的需求,可以選擇不同的模式,顆粒度更細了,具體問題具體分析,使結果更準確。感覺開發(fā)效率提升了一大截。尤其是支持工程目錄和多文件極大地提升了開發(fā)效率。
通義靈碼 2.5的更新讓我看到了阿里在AI輔助開發(fā)領域的野心和實力。不同模式的對話體驗、增強的上下文能力、MCP工具鏈和記憶能力共同構建了一個全新的開發(fā)范式。
**優(yōu)勢總結** :
* 不同模式的對話體驗大幅提升工作流暢度
* 上下文增強能力顯著擴展知識邊界
* MCP工具鏈打通了設計-開發(fā)-部署全流程
* 智能體t能力讓AI從工具變成了真正的助手
* 記憶能力提供了個性化定制空間
**不足之處** :
* 復雜項目中上下文管理仍有提升空間
* MCP的權限管理需要加強
* 對某些編程語言的支持深度不均衡
* 工具使用經常會有延遲
從行業(yè)角度看,通義靈碼 的這次更新反映了AI輔助開發(fā)的關鍵趨勢:從單點工具向全流程助手演進、從被動響應向主動協(xié)作轉變。字節(jié)似乎在下一盤大棋:不僅要提供一個IDE,而是構建一個完整的AI輔助開發(fā)生態(tài)。
通義靈碼 能否憑借此次升級在競爭激烈的AI IDE市場脫穎而出?我覺得核心將取決于三點:MCP生態(tài)的豐富度、Agent能力的持續(xù)提升以及與傳統(tǒng)開發(fā)流程的無縫銜接。
無論如何,通義靈碼 已經為AI輔助開發(fā)設立了新的標桿。這次更新更像是一次范式轉變,讓我們看到了AI如何真正成為開發(fā)者的"結對編程伙伴"。
作為一個見證了多代開發(fā)工具演進的開發(fā)者,我不禁覺得AI輔助開發(fā)的浪潮來得比想象的還要快,這才上線沒多久,就已經追上cursor的腳跟了,通義靈碼展示的是未來開發(fā)環(huán)境的雛形。
讓我們拭目以待,共同見證。