iOS11 新特性-Core ML (一)簡介

WWDC 2017開發(fā)者大會上,蘋果發(fā)布了面向開發(fā)者的機器學(xué)習(xí)API,包括面部識別的視覺 API、自然語言處理 API,這些 API 集成了蘋果所謂的 Core ML 框架;Core ML 的核心是加速在 iPhone、iPad、Apple Watch 上的人工智能任務(wù),支持深度神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、支持向量機、樹集成、線性模型等。詳細資料參考Core

ML。

使用 Core ML,你可以將訓(xùn)練好的機器學(xué)習(xí)模型整合到你的應(yīng)用中。它支持以下操作系統(tǒng):

iOS11.0+Beta

macOS 10.13+Beta

tvOS 11.0+Beta

watchOS 4.0+Beta

訓(xùn)練好的模型(trained model)是將一個機器學(xué)習(xí)算法應(yīng)用到一個訓(xùn)練數(shù)據(jù)集之后所得到的結(jié)果。然后該模型可以基于新的輸入數(shù)據(jù)而進行預(yù)測。比如,如果一個模型在一個地區(qū)的歷史房價數(shù)據(jù)上進行了訓(xùn)練,那么它就可能能夠根據(jù)房子的臥室和浴室數(shù)量來預(yù)測房價。


Core ML 是域特定的框架和功能的基礎(chǔ)。Core

ML 支持用于圖像分析的 Vision;用于自然語言處理的 Foundation(比如 NSLinguisticTagger

類)和用于評估已經(jīng)學(xué)習(xí)到的決策樹的 GameplayKit。Core ML 本身構(gòu)建于低層面的原語(primitives)之上,比如

Accelerate、BNNS 和 Metal Performance Shaders。

Core ML 為設(shè)備性能進行了優(yōu)化,從而減少了內(nèi)存占用和功耗。嚴格在設(shè)備上運行能夠確保用戶數(shù)據(jù)的隱私,并且能保證你的應(yīng)用在沒有網(wǎng)絡(luò)連接時也能夠工作和響應(yīng)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容