2018機器人深度學習--學習計劃(3 月 5 ~ 3 月12)

計劃:<br />
1.學習tensorflow模塊

第一周學習小結:

一、降低損失

1)迭代方法


“模型”部分將一個或多個特征作為輸入,然后返回一個預測 (y') 作為輸出。將模型看成理想模型的話,可用線性公式表示:

w為權重,b為偏差

使用迭代方法,在訓練機器學習模型時,首先對權重和偏差進行初始猜測,然后反復調整這些猜測,直到獲得損失可能最低的權重和偏差為止。

2)梯度下降法

????假設我們有時間和計算資源來計算權重 的所有可能值的損失。可得出所產生的損失與權重的圖形始終是凸形

凸形問題只有一個最低點;即只存在一個斜率正好為 0 的位置。這個最小值就是損失函數(shù)收斂之處。這樣就可以利用梯度下降的方法,來計算最低。
利用正梯度計算時,計算結果得出的權重值始終會走向損失增長的方向,所以需要利用負梯度的計算方法。初始值的取值并不影響結果,所以不需要考慮

二、構建簡單的神經網絡

1)創(chuàng)建神經層layer

2)創(chuàng)建神經網絡的基本結構?

創(chuàng)建隨機輸入?yún)?shù)inputs:?

構建所需的數(shù)據(jù)。 這里的x_data和y_data并不是嚴格的一元二次函數(shù)的關系,因為我們多加了一個noise,這樣看起來會更像真實情況。

使用占位符placeholde定義所需的神經網絡的輸入。1代表輸入只有一個特征

定義神經層。 通常神經層都包括輸入層、隱藏層和輸出層。這里的輸入層只有一個屬性, 所以我們就只有一個輸入,假設我們有十個神經元,即有十個隱藏層

計算

在創(chuàng)建神經層時候定義了Variable變量,所以必須要初始化變量:

?開始訓練:

利用matplotlib觀察訓練結果可知,機器學習逐漸減少誤差,最終形成一條最接近超參數(shù)的曲線

?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容