Learning Time-Series Shapelets
前言
在最早期的shapelets模型中,一條shaplets是從一個時間序列訓(xùn)練集中的所有時間序列中抽取一個最具代表性的。而這一篇文章模型所得到的Shapelets并不是抽取到的,而是學(xué)習(xí)得到的(Learning)。
符號說明
| 符號 | 含義 |
|---|---|
![]() image
|
第i條時間序列Ti和第k條shpelets之間的最短距離 |
過程
首先是目標函數(shù):

這個目標函數(shù)其實如果了解支持向量機的前身感知器模型的話,就會比較容易理解。
這是一個線性的目標函數(shù),目的只是二分類。Mi,k乘以權(quán)重Wk,然后再加上偏置項W0就可以了。例如,如果最后結(jié)果大于0,那就是第一類,如果結(jié)果小于0那就是第二類。
但我存在的疑問是,支持向量機的原理只是根據(jù)損失函數(shù)更新權(quán)重Wk,那么這篇論文里是怎么根據(jù)損失函數(shù)更新學(xué)習(xí)到的shapelets的呢。并且論文中3.4第一段也提到:
In order to compute the derivative of the objective funtion,all the involved functions of the model need to be defferentiable.** Unfortunatly, the minimum function of Equation 1 is not differentiable** and the partial [圖片上傳失敗...(image-7ec05e-1604300219721)] is not defined. A differentiable approximation to the minimum function is introduced in this section.
接著論文里介紹,一種求導(dǎo)的近似方法叫做soft minimum function(我用bing還有百度搜索了一下,暫時沒有找到介紹這個的博客,所以就不再細究)。
然后我在這個算法偽代碼里看到了如果修改shapelets的內(nèi)容的:
總結(jié)
總結(jié)來說,這篇論文摒棄了從原始時間序列中抽取shapelets的思想(因為太耗時耗力),轉(zhuǎn)而通過一個線性回歸分類模型學(xué)習(xí)到一個shapelets。到這里,模型還只能解決二分類問題,要解決多分類問題怎么辦呢。這個時候就可以利用OvO和OvR的思想來進行多分類。
