
頭條
我從 900 種最流行的開源AI工具中學(xué)到了什么
https://huyenchip.com/2024/03/14/ai-oss.html
這篇關(guān)于開源人工智能資源庫的評論旨在讓讀者從大處著眼,了解看似鋪天蓋地的人工智能生態(tài)系統(tǒng)。
對先進(jìn)AI發(fā)出警告的權(quán)利
一群人工智能公司的現(xiàn)任和前任員工呼吁先進(jìn)的人工智能公司遵守相關(guān)原則,確保透明度并保護(hù)提出風(fēng)險相關(guān)問題的員工。他們強(qiáng)調(diào),公司需要避免執(zhí)行非貶損協(xié)議,為匿名舉報程序提供便利,支持公開批評,并防止對舉報人進(jìn)行報復(fù)。
Scaling 能解決機(jī)器人問題嗎?
https://spectrum.ieee.org/solve-robotics
900 多人參加了去年的機(jī)器人學(xué)習(xí)大會,大會共舉辦了 11 場研討會,收到近 200 篇論文。會上最大的爭論之一是,在超大數(shù)據(jù)集上訓(xùn)練大型神經(jīng)網(wǎng)絡(luò)是否是解決機(jī)器人問題的可行方法。這篇文章介紹了爭論的不同方面,以加深人們對爭論的理解。擴(kuò)展在其他類似領(lǐng)域也行之有效。然而,這并不現(xiàn)實,因為機(jī)器人數(shù)據(jù)并不多,也沒有明確的獲取途徑。即使縮放在其他領(lǐng)域同樣有效,也很可能無法解決機(jī)器人問題。
不透明的投資帝國讓 OpenAI 的 Sam Altman 暴富
https://wallstreetsights.com/business/openais-sam-altman-get-rich/4975/
薩姆-奧特曼(Sam Altman)是硅谷最多產(chǎn)、最激進(jìn)的個人投資者之一。截至今年年初,他管理的投資帝國至少擁有 28 億美元的資產(chǎn)。其中大部分投資組合并不廣為人知。本文將帶讀者了解阿爾特曼的投資情況。
研究
MMLU Pro
https://arxiv.org/abs/2406.01574
MMLU 是推理任務(wù)的常用基準(zhǔn)。它通常既被認(rèn)為是黃金標(biāo)準(zhǔn),也被認(rèn)為是模型過度擬合的結(jié)果。MMLU Pro 是衡量語言模型推理的一個全新、更難、更簡潔的基準(zhǔn)。
Tree Diffusion: Diffusion Models For Code
https://tree-diffusion.github.io/
很棒的擴(kuò)散模型論文,可以擴(kuò)散圖像代碼。它可以直接在擴(kuò)散過程中進(jìn)行編輯。它很慢,但可以輕松與搜索結(jié)合,從而顯著提高推理能力。
LLM 的越獄方法
https://arxiv.org/abs/2405.21018v1
研究人員在貪婪坐標(biāo)梯度(GCG)攻擊的基礎(chǔ)上,推出了基于優(yōu)化的大型語言模型越獄改進(jìn)方法。
工程
What is RAG? - A Neo4j Blog
https://neo4j.com/blog/what-is-retrieval-augmented-generation-rag/
聊天機(jī)器人可以來更像人類,并能提供詳細(xì)、準(zhǔn)確的回答。 Neo4j 的這篇博客,了解檢索增強(qiáng)生成(RAG)如何改善LLM的回答。
Omost Image Synthesis
https://github.com/lllyasviel/Omost
Omost 來自 ControlNet 的創(chuàng)造者,是一種控制圖像生成的方法。它首先將提示改寫為一組描述性代碼。然后,它使用這些代碼來渲染最終圖像。重要的是,人們可以在生成之前或之后編輯代碼,對模型輸出稍作修改。
改進(jìn)的視頻超分辨率
https://ssyang2020.github.io/zerosmooth.github.io/
研究人員為生成式視頻擴(kuò)散模型開發(fā)了一種無需訓(xùn)練的視頻插值方法。這種新方法與各種模型兼容,無需大量訓(xùn)練或大型數(shù)據(jù)集即可提高幀頻。
圖像壓縮
https://github.com/lianqi1008/Control-GIC
Control-GIC 是一種用于生成式圖像壓縮的新框架,可在保持高質(zhì)量結(jié)果的同時進(jìn)行細(xì)粒度比特率調(diào)整。
雜七雜八
LLM 光速推理
https://zeux.io/2024/03/15/llm-inference-sol/
使用理論光速建模作為基礎(chǔ),對于計算量和內(nèi)存訪問量先驗已知的問題非常重要,因為它有助于驗證實現(xiàn)的質(zhì)量和預(yù)測架構(gòu)變化的影響。
人工智能時代的高薪工作
https://www.noahpinion.blog/p/plentiful-high-paying-jobs-in-the
由于比較優(yōu)勢,無論人工智能在這些工作上做得多好,人類今天所做的許多工作都有可能無限期地繼續(xù)由人類完成。
Facia
利用先進(jìn)的面部識別技術(shù)防止欺詐和欺騙攻擊。
樹莓派也開始涉足人工智能
https://www.theverge.com/2024/6/4/24170818/raspberry-pi-ai-chip-hailo-devices
樹莓派(Raspberry Pi)將推出一款與其相機(jī)軟件集成的人工智能芯片,使聊天機(jī)器人等人工智能應(yīng)用能夠在微型計算機(jī)上原生運(yùn)行。
Using AI To Decode Doc Vocalizations
https://news.umich.edu/using-ai-to-decode-dog-vocalizations/
密歇根大學(xué)的研究人員與墨西哥的 INAOE 合作開發(fā)了人工智能工具,通過分析狗叫聲來判斷狗是否貪玩或具有攻擊性,并識別狗的品種、年齡和性別。