隨著iOS11的發(fā)布,蘋果公司也正式加入了機器學習的戰(zhàn)場。在新的iOS11中內(nèi)置了CoreML,雖然還是Beta版本,但是功能已經(jīng)非常強大了。
在這個CoreML庫里面,已經(jīng)集成了一些訓(xùn)練好的模型,可以在App中直接使用這些模型進行預(yù)測。
下面是蘋果對于Core ML的介紹。
CoreML讓你將很多機器學習模型集成到你的app中。除了支持層數(shù)超過30層的深度學習之外,還支持決策樹的融合,SVM(支持向量機),線性模型。由于其底層建立在Metal 和Accelerate等技術(shù)上,所以可以最大限度的發(fā)揮CPU和GPU的優(yōu)勢。你可以在移動設(shè)備上運行機器學習模型,數(shù)據(jù)可以不離開設(shè)備直接被分析。
Vision:這部分是關(guān)于圖像分析和圖像識別的。其中包括人臉追蹤,人臉識別,航標(landmarks),文本識別,區(qū)域識別,二維碼識別,物體追蹤,圖像識別等。
其中使用的模型包括:Places205-GoogLeNet,ResNet50,Inception v3,VGG16。
這些模型最小的25M,對于app還是可以接受的,最大的有550M,不知道如何集成到app中。
NLPAPI:這部分是自然語言處理的API,包括語言識別,分詞,詞性還原,詞性判定,實體辨識。
GamePlayKit:這部分的話,應(yīng)該是制作游戲時候,提供一些隨機數(shù)生成,尋找路徑(pathfinding),人工智能的庫。感覺上可能還帶有強化學習的一些功能(提到了agent behavior,這個可能是強化學習 Q-Learning的一些術(shù)語吧0)。其中也有一些Decision Trees的API,但是不知道和傳統(tǒng)的決策樹是否一致。