頭條
在世界各地銷(xiāo)售AI產(chǎn)品仍然太難
https://a16z.com/2023/07/28/merchant-of-record-generative-ai-digital-first-global/
盡管創(chuàng)建一家公司從未如此簡(jiǎn)單,但在全球范圍內(nèi)銷(xiāo)售產(chǎn)品仍然非常困難。 a16z 解釋了為什么Merchant of Record計(jì)劃可能是解決方案。
Stack Overflow 通過(guò) OverflowAI 進(jìn)入生成式 AI 世界
https://venturebeat.com/ai/stack-overflow-jumps-into-the-generative-ai-world-with-overflow-ai/
Stack Overflow 正在將生成式人工智能功能集成到其平臺(tái)中,以增強(qiáng)搜索功能并為開(kāi)發(fā)人員提供幫助。 OverflowAI 將于 8 月推出 alpha 版本。 這些工具包括 Visual Studio Code 擴(kuò)展和 Slack 集成。
研究
谷歌在機(jī)器人領(lǐng)域取得新突破
https://robotics-transformer2.github.io/
Transformers 被用到了計(jì)算機(jī)視覺(jué),Transformers 也被用來(lái)做計(jì)劃,Transformers 也可以用來(lái)做控制么? 看起來(lái)Transformers 正在繼續(xù)通過(guò)谷歌的下一代機(jī)器人技術(shù)迭代來(lái)統(tǒng)治世界,這些技術(shù)使用強(qiáng)大的預(yù)訓(xùn)練模型來(lái)提高機(jī)器人性能的各個(gè)方面。
語(yǔ)言模型學(xué)習(xí)技能來(lái)學(xué)習(xí)語(yǔ)言
https://arxiv.org/abs/2307.14430
作為弄清楚語(yǔ)言模型在預(yù)訓(xùn)練時(shí)的作用的一部分,您可以設(shè)置合成數(shù)據(jù)任務(wù)來(lái)測(cè)試各種技能,然后整理包含有助于告知這些技能的數(shù)據(jù)的數(shù)據(jù)集。 如果您對(duì) 10 億個(gè)Token進(jìn)行訓(xùn)練,則可以獲得與使用適當(dāng)管理的數(shù)據(jù)集對(duì) 30 億個(gè)Token進(jìn)行訓(xùn)練相同的性能。
人工智能現(xiàn)在可以從模擬環(huán)境中學(xué)習(xí)
https://arxiv.org/abs/2307.14993v1
Thinker算法引入了一種獨(dú)特的方法,允許人工智能獨(dú)立地與模擬環(huán)境交互并從中學(xué)習(xí),從而提高其制定戰(zhàn)略計(jì)劃的能力。 該算法在 Sokoban 和 Atari 2600 基準(zhǔn)游戲中進(jìn)行了測(cè)試,顯示出頂級(jí)性能,為人工智能強(qiáng)化學(xué)習(xí)提供了一種新方法,并徹底改變了規(guī)劃與決策過(guò)程的整合方式。
工程
文本生成接口 (GitHub Repo)
https://github.com/huggingface/text-generation-inference
用于文本生成推理的 Rust、Python 和 gRPC 服務(wù)器。 在 HuggingFace 的生產(chǎn)中用于為 Hugging Chat、推理 API 和推理端點(diǎn)提供支持。 最近更改了許可證,不可用于商業(yè)用途。
谷歌的Bard和視覺(jué)理解的挑戰(zhàn) (GitHub Repo)
https://github.com/htqin/googlebard-visunderstand
谷歌的對(duì)話式人工智能 Bard 現(xiàn)在能夠處理除文本之外的視覺(jué)輸入,為多模式生成模型創(chuàng)造了新的可能性。 然而,這項(xiàng)針對(duì) 13 個(gè)不同視覺(jué)場(chǎng)景的研究表明,巴德在視覺(jué)理解方面存在困難,這表明人工智能模型的未來(lái)發(fā)展還有很大的改進(jìn)空間。
通過(guò)自我監(jiān)督學(xué)習(xí)獲得更好的醫(yī)學(xué)成像
https://arxiv.org/abs/2307.14725v1
該研究引入了 vox2vec,這是一種創(chuàng)新方法,它使用自我監(jiān)督學(xué)習(xí)來(lái)更好地理解體素(3D 像素)級(jí)別的 CT 掃描等醫(yī)學(xué)圖像。 結(jié)果表明,與該領(lǐng)域的其他技術(shù)相比,vox2vec 表現(xiàn)出色,提供了一種更高效的解決方案,需要更少的可訓(xùn)練參數(shù)。
雜七雜八
生成式人工智能和工作的未來(lái)
https://www.mckinsey.com/mgi/our-research/generative-ai-and-the-future-of-work-in-america
麥肯錫關(guān)于人工智能將如何促進(jìn)某些職業(yè)的工作并削弱其他職業(yè)的增長(zhǎng)的報(bào)告。
無(wú)人發(fā)現(xiàn)的人工智能教育問(wèn)題
https://thealgorithmicbridge.substack.com/p/the-ai-generated-education-issue
想要遏制人工智能作弊浪潮的教師必須尋找人工智能編寫(xiě)檢測(cè)器之外的其他地方,因?yàn)槟壳昂苊黠@檢測(cè)器并不有效。
人工智能和數(shù)據(jù)角色的悖論
https://tomtunguz.com/why-data-teams-will-grow-ai/
Tomasz Tunguz 解釋了為什么盡管人工智能將使一些數(shù)據(jù)工作自動(dòng)化,但它也對(duì)數(shù)據(jù)團(tuán)隊(duì)提出了更多要求。
Llama 2 7B 32k 上下文長(zhǎng)度
https://together.ai/blog/llama-2-7b-32k
Togethercompute 最近籌集了 2000 萬(wàn)美元,對(duì) Llama 2 進(jìn)行了微調(diào),對(duì)位置嵌入進(jìn)行了線性擴(kuò)展,以在上下文中處理多達(dá) 32k 個(gè)令牌。 他們測(cè)試了許多有趣的基準(zhǔn),但警告說(shuō)“忘記中間”在現(xiàn)代語(yǔ)言模型中仍然是一個(gè)很大的問(wèn)題。
Khoj (GitHub Repo)
https://github.com/khoj-ai/khoj
數(shù)字大腦:AI 個(gè)人助理。
AI Logo Art (Product)
https://ailogoart.com/
人工智能標(biāo)志藝術(shù)通過(guò)人工智能將Logo轉(zhuǎn)變?yōu)榱钊梭@嘆的藝術(shù)。