線性二次型高斯(Linear Quadratic Gaussian (LQG)) 在現(xiàn)實世界中,我們通常不能獲取到所有的狀態(tài)st。比如一個自動駕...
上一節(jié)中我們介紹了一個特殊的MDP模型:線性二次型調(diào)節(jié)控制(LQR)。事實上很多問題都可以用LQR來解決,即使動態(tài)模型是非線性的。盡管LQR是一...
有限邊界的MDP 在前面兩章關(guān)于強化學習的介紹中,我們定義了馬爾可夫決策過程(MDP)以及價值迭代/策略迭代這兩種用于求解MDP的算法。特別地,...
到目前為止,我們一直都在討論有限狀態(tài)下的MDP問題,現(xiàn)在我們來看下當狀態(tài)數(shù)量是無限時如何求解MDP問題。 離散化 也許求解無限狀態(tài)下的MDP問題...
這一節(jié)開始我們介紹強化學習(reinforcement learning)。在監(jiān)督學習中,對于一個給定的輸入x,我們可以明確知道輸出y。而在很多...
這一節(jié)的主題是獨立成分分析(Independent Components Analysis, ICA)。和PCA的降維思路不同,ICA主要解決的...
上一節(jié)我們介紹了因子分析,該模型通過一系列變換可以將高維數(shù)據(jù)用低維數(shù)據(jù)來表示。因子分析基于的是概率模型,并且需要用到EM算法進行參數(shù)估計。 這一...
上一節(jié)我們介紹了用EM算法求解混合高斯模型,但這個算法通常是在樣本數(shù)足夠多的情況下才成立,即滿足樣本數(shù)m遠遠大于特征數(shù)n。 如果n >> m,那...
這一節(jié)開始我們討論非監(jiān)督學習(Unsupervised Learning)的算法。在監(jiān)督學習算法中,訓練數(shù)據(jù)既包含特征也包含標簽,通常表示為{(...