2025-01-15 簡(jiǎn)訊 : OpenAI發(fā)布人工智能對(duì)美國(guó)的經(jīng)濟(jì)影響


頭條


OpenAI發(fā)布人工智能對(duì)美國(guó)的經(jīng)濟(jì)影響

https://cdn.openai.com/global-affairs/ai-in-america-oais-economic-blueprint-20250109.pdf

OpenAI的這份報(bào)告概述了人工智能給美國(guó)帶來(lái)的經(jīng)濟(jì)機(jī)遇和挑戰(zhàn),強(qiáng)調(diào)需要政策框架來(lái)負(fù)責(zé)任地利用人工智能的潛力。

CODESTRAL 2501

https://mistral.ai/news/codestral-2501/

Mistral 推出了一款新的快速編碼模型,將在Continue.dev及其他人工智能代碼輔助工具中可用。遺憾的是,它們比不上通義2.5代碼生成模型。

英偉達(dá)對(duì)人工智能初創(chuàng)企業(yè)的投資

https://techcrunch.com/2025/01/11/nvidias-ai-empire-a-look-at-its-top-startup-investments/

英偉達(dá)正大力投資專注于生成式AI、硬件加速和AI工具的初創(chuàng)企業(yè),以加強(qiáng)其在人工智能領(lǐng)域的主導(dǎo)地位,引領(lǐng)下一波科技創(chuàng)新。


研究


全新生成對(duì)抗網(wǎng)絡(luò)基線

https://arxiv.org/abs/2501.05441

生成對(duì)抗網(wǎng)絡(luò)(GANs)由于不穩(wěn)定和糟糕的最優(yōu)動(dòng)態(tài)而難以訓(xùn)練。這項(xiàng)研究精心調(diào)整了一種新的、穩(wěn)定的GAN設(shè)置,它能持續(xù)訓(xùn)練到相當(dāng)高的保真度。

擴(kuò)散模型中的高效采樣

https://arxiv.org/abs/2501.06148v1

這篇論文研究了在無(wú)法獲取目標(biāo)樣本的情況下,訓(xùn)練擴(kuò)散模型以從玻爾茲曼分布中進(jìn)行采樣的問題。

一個(gè)用于近似最近鄰搜索的庫(kù)

https://arxiv.org/abs/2501.06121v1

kANNolo是一個(gè)用Rust編寫的近似最近鄰(ANN)庫(kù),專為有效兼顧可用性和性能而設(shè)計(jì)。


工程


2000美元的Stable Diffusion(GitHub倉(cāng)庫(kù))

https://github.com/SonyResearch/micro_diffusion/tree/main

索尼研究公司發(fā)布了一款微型擴(kuò)散模型的代碼、數(shù)據(jù)和權(quán)重。該模型訓(xùn)練成本相對(duì)較低,卻仍能實(shí)現(xiàn)超強(qiáng)性能。

多模態(tài)甚高分辨率數(shù)據(jù)集(GitHub 倉(cāng)庫(kù))

https://github.com/chenhongruixuan/bright

Bright是一個(gè)全球分布式的多模態(tài)甚高分辨率數(shù)據(jù)集,用于全天候?yàn)?zāi)害應(yīng)對(duì)。

LLAMAV-O1技術(shù)報(bào)告

https://arxiv.org/abs/2501.06186v1

LlamaV-o1是一個(gè)用于推動(dòng)大語(yǔ)言模型逐步進(jìn)行視覺推理的綜合框架。


其他


去中心化擴(kuò)散

https://decentralizeddiffusion.github.io/

由于網(wǎng)絡(luò)瓶頸,在數(shù)千個(gè)GPU上進(jìn)行擴(kuò)散模型的去中心化訓(xùn)練是個(gè)難題。該系統(tǒng)的工作為大規(guī)模擴(kuò)散模型訓(xùn)練引入了新的聚合技術(shù)。

探討“大語(yǔ)言模型中的對(duì)齊造假”

https://joecarlsmith.com/2024/12/18/takes-on-alignment-faking-in-large-language-models

紅木研究公司(Redwood Research)和Anthropic的研究人員發(fā)現(xiàn),生產(chǎn)級(jí)人工智能模型Claude 3 Opus有時(shí)會(huì)假裝符合訓(xùn)練目標(biāo)以避免修改,這種行為被稱為“對(duì)齊造假”。這項(xiàng)研究很關(guān)鍵,因?yàn)樗ㄟ^實(shí)驗(yàn)證明了人工智能模型會(huì)展現(xiàn)出非短視的目標(biāo),這意味著默認(rèn)的人工智能訓(xùn)練方法可能會(huì)創(chuàng)造出動(dòng)機(jī)不止于單一任務(wù)的系統(tǒng)。

人工智能現(xiàn)在會(huì)做數(shù)學(xué)題了嗎?一位數(shù)學(xué)家的看法

https://xenaproject.wordpress.com/2024/12/22/can-ai-do-maths-yet-thoughts-from-a-mathematician/

OpenAI的新語(yǔ)言模型o3在FrontierMath數(shù)據(jù)集上得了25%的分?jǐn)?shù),該數(shù)據(jù)集是由Epoch AI整理的一組具有挑戰(zhàn)性的數(shù)學(xué)題。專家指出,數(shù)據(jù)集中很多題目需要本科水平的專業(yè)知識(shí)。目前人們?nèi)該?dān)心人工智能處理更復(fù)雜數(shù)學(xué)證明的能力,因?yàn)槠洚?dāng)前在邏輯推理方面的表現(xiàn)仍落后于人類專家。

試用QVQ—— 文心的全新視覺推理模型

https://simonwillison.net/2024/Dec/24/qvq/

阿里巴巴的通義團(tuán)隊(duì)發(fā)布了QvQ-72B-Preview,這是一個(gè)增強(qiáng)視覺推理的實(shí)驗(yàn)?zāi)P?,采用通義許可而非Apache 2.0許可。

自主軟件開發(fā)時(shí)代的構(gòu)建

https://backchannel.org/blog/autonomous-software

隨著自主系統(tǒng)不斷發(fā)展,軟件工程的未來(lái)將從編寫代碼轉(zhuǎn)向操作代碼生成機(jī)器。

CELLVIT++(GitHub 倉(cāng)庫(kù))

https://github.com/tio-ikim/cellvit-plus-plus

這個(gè)代碼庫(kù)提供了一個(gè)節(jié)能且自適應(yīng)的細(xì)胞分割與分類框架。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容