2023-08-01 簡(jiǎn)訊 : 在世界各地銷(xiāo)售AI產(chǎn)品仍然太難


頭條


在世界各地銷(xiāo)售AI產(chǎn)品仍然太難

https://a16z.com/2023/07/28/merchant-of-record-generative-ai-digital-first-global/
盡管創(chuàng)建一家公司從未如此簡(jiǎn)單,但在全球范圍內(nèi)銷(xiāo)售產(chǎn)品仍然非常困難。 a16z 解釋了為什么Merchant of Record計(jì)劃可能是解決方案。

Stack Overflow 通過(guò) OverflowAI 進(jìn)入生成式 AI 世界

https://venturebeat.com/ai/stack-overflow-jumps-into-the-generative-ai-world-with-overflow-ai/
Stack Overflow 正在將生成式人工智能功能集成到其平臺(tái)中,以增強(qiáng)搜索功能并為開(kāi)發(fā)人員提供幫助。 OverflowAI 將于 8 月推出 alpha 版本。 這些工具包括 Visual Studio Code 擴(kuò)展和 Slack 集成。


研究


谷歌在機(jī)器人領(lǐng)域取得新突破

https://robotics-transformer2.github.io/
Transformers 被用到了計(jì)算機(jī)視覺(jué),Transformers 也被用來(lái)做計(jì)劃,Transformers 也可以用來(lái)做控制么? 看起來(lái)Transformers 正在繼續(xù)通過(guò)谷歌的下一代機(jī)器人技術(shù)迭代來(lái)統(tǒng)治世界,這些技術(shù)使用強(qiáng)大的預(yù)訓(xùn)練模型來(lái)提高機(jī)器人性能的各個(gè)方面。

語(yǔ)言模型學(xué)習(xí)技能來(lái)學(xué)習(xí)語(yǔ)言

https://arxiv.org/abs/2307.14430
作為弄清楚語(yǔ)言模型在預(yù)訓(xùn)練時(shí)的作用的一部分,您可以設(shè)置合成數(shù)據(jù)任務(wù)來(lái)測(cè)試各種技能,然后整理包含有助于告知這些技能的數(shù)據(jù)的數(shù)據(jù)集。 如果您對(duì) 10 億個(gè)Token進(jìn)行訓(xùn)練,則可以獲得與使用適當(dāng)管理的數(shù)據(jù)集對(duì) 30 億個(gè)Token進(jìn)行訓(xùn)練相同的性能。

人工智能現(xiàn)在可以從模擬環(huán)境中學(xué)習(xí)

https://arxiv.org/abs/2307.14993v1
Thinker算法引入了一種獨(dú)特的方法,允許人工智能獨(dú)立地與模擬環(huán)境交互并從中學(xué)習(xí),從而提高其制定戰(zhàn)略計(jì)劃的能力。 該算法在 Sokoban 和 Atari 2600 基準(zhǔn)游戲中進(jìn)行了測(cè)試,顯示出頂級(jí)性能,為人工智能強(qiáng)化學(xué)習(xí)提供了一種新方法,并徹底改變了規(guī)劃與決策過(guò)程的整合方式。


工程


文本生成接口 (GitHub Repo)

https://github.com/huggingface/text-generation-inference
用于文本生成推理的 Rust、Python 和 gRPC 服務(wù)器。 在 HuggingFace 的生產(chǎn)中用于為 Hugging Chat、推理 API 和推理端點(diǎn)提供支持。 最近更改了許可證,不可用于商業(yè)用途。

谷歌的Bard和視覺(jué)理解的挑戰(zhàn) (GitHub Repo)

https://github.com/htqin/googlebard-visunderstand
谷歌的對(duì)話式人工智能 Bard 現(xiàn)在能夠處理除文本之外的視覺(jué)輸入,為多模式生成模型創(chuàng)造了新的可能性。 然而,這項(xiàng)針對(duì) 13 個(gè)不同視覺(jué)場(chǎng)景的研究表明,巴德在視覺(jué)理解方面存在困難,這表明人工智能模型的未來(lái)發(fā)展還有很大的改進(jìn)空間。

通過(guò)自我監(jiān)督學(xué)習(xí)獲得更好的醫(yī)學(xué)成像

https://arxiv.org/abs/2307.14725v1
該研究引入了 vox2vec,這是一種創(chuàng)新方法,它使用自我監(jiān)督學(xué)習(xí)來(lái)更好地理解體素(3D 像素)級(jí)別的 CT 掃描等醫(yī)學(xué)圖像。 結(jié)果表明,與該領(lǐng)域的其他技術(shù)相比,vox2vec 表現(xiàn)出色,提供了一種更高效的解決方案,需要更少的可訓(xùn)練參數(shù)。


雜七雜八


生成式人工智能和工作的未來(lái)

https://www.mckinsey.com/mgi/our-research/generative-ai-and-the-future-of-work-in-america
麥肯錫關(guān)于人工智能將如何促進(jìn)某些職業(yè)的工作并削弱其他職業(yè)的增長(zhǎng)的報(bào)告。

無(wú)人發(fā)現(xiàn)的人工智能教育問(wèn)題

https://thealgorithmicbridge.substack.com/p/the-ai-generated-education-issue
想要遏制人工智能作弊浪潮的教師必須尋找人工智能編寫(xiě)檢測(cè)器之外的其他地方,因?yàn)槟壳昂苊黠@檢測(cè)器并不有效。

人工智能和數(shù)據(jù)角色的悖論

https://tomtunguz.com/why-data-teams-will-grow-ai/
Tomasz Tunguz 解釋了為什么盡管人工智能將使一些數(shù)據(jù)工作自動(dòng)化,但它也對(duì)數(shù)據(jù)團(tuán)隊(duì)提出了更多要求。

Llama 2 7B 32k 上下文長(zhǎng)度

https://together.ai/blog/llama-2-7b-32k
Togethercompute 最近籌集了 2000 萬(wàn)美元,對(duì) Llama 2 進(jìn)行了微調(diào),對(duì)位置嵌入進(jìn)行了線性擴(kuò)展,以在上下文中處理多達(dá) 32k 個(gè)令牌。 他們測(cè)試了許多有趣的基準(zhǔn),但警告說(shuō)“忘記中間”在現(xiàn)代語(yǔ)言模型中仍然是一個(gè)很大的問(wèn)題。

Khoj (GitHub Repo)

https://github.com/khoj-ai/khoj
數(shù)字大腦:AI 個(gè)人助理。

AI Logo Art (Product)

https://ailogoart.com/
人工智能標(biāo)志藝術(shù)通過(guò)人工智能將Logo轉(zhuǎn)變?yōu)榱钊梭@嘆的藝術(shù)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容