最近在幫師門同學(xué)做植物熒光的實驗,也是相當(dāng)冷門了,用大白話總結(jié)了一些學(xué)習(xí)的知識,圖片上傳還不成功,回頭整理。 1 名詞解釋與原理 1.1 光合作用 補充一點高中的生物與化學(xué)知...
最近在幫師門同學(xué)做植物熒光的實驗,也是相當(dāng)冷門了,用大白話總結(jié)了一些學(xué)習(xí)的知識,圖片上傳還不成功,回頭整理。 1 名詞解釋與原理 1.1 光合作用 補充一點高中的生物與化學(xué)知...
@曾無 話說github沒有掛誒,不過要梯子。還有一個很重要的建議:多動手?。?!我也是入門級菜狗,好怕誤人子弟。
IDL批處理高分6號(GF6)影像預(yù)處理踩坑全紀(jì)錄萬幸,能寫這篇博客說明我最后還是成功了。 看到網(wǎng)上關(guān)于IDL處理GF6號數(shù)據(jù)的帖子少之又少,咱來填上這個坑。 1 背景介紹 1.1 環(huán)境要求 樓主是IDL8.3+ENVI5....
@曾無 我是覺得如果學(xué)過其他語言的話,入門任何一種語言都不難的,當(dāng)然只是入門。建議就是找兩份好代碼讀一讀改一改,不懂的地方拿著我文末的那幾個鏈接認真學(xué)一學(xué)查一查。但如果你沒學(xué)過任何編程語言那就比較麻煩了,但這種情況的話也可以直接學(xué),從基本語法開始,看你需要什么吧。
IDL批處理高分6號(GF6)影像預(yù)處理踩坑全紀(jì)錄萬幸,能寫這篇博客說明我最后還是成功了。 看到網(wǎng)上關(guān)于IDL處理GF6號數(shù)據(jù)的帖子少之又少,咱來填上這個坑。 1 背景介紹 1.1 環(huán)境要求 樓主是IDL8.3+ENVI5....
最近一直在學(xué)習(xí)PROSAIL模型的相關(guān)內(nèi)容,覺得還是要做個總結(jié)。 1 PROSAIL的簡單介紹 雖然但是,使用PROSAIL做敏感性分析,并不需要去了解這個模型的詳細原理,因...
1. openssh下載與配置 1)必須要先在win7系統(tǒng)上下載一個ssh工具,常用openssh,這里貼出一個教程鏈接openssh下載安裝[https://www.jia...
萬幸,能寫這篇博客說明我最后還是成功了。 看到網(wǎng)上關(guān)于IDL處理GF6號數(shù)據(jù)的帖子少之又少,咱來填上這個坑。 1 背景介紹 1.1 環(huán)境要求 樓主是IDL8.3+ENVI5....
此篇為補充說明,完整預(yù)處理踩坑移步: 4.3.1 介紹 先說一下,樓主上課的時候沒有認真聽講,導(dǎo)致對flassh大氣校正這個東西是完全不懂原理,一竅不通,好在使用envi處理...
1. 算法 GBDT (Gradient Boosting Decision Tree) ,梯度提升樹,是屬于集成算法中boosting類的一種算法。這個算法是現(xiàn)有機器學(xué)習(xí)算...
1.算法 從這部分開始,我們來講解機器學(xué)習(xí)中最實用,效率高且效果好的決策器集成類的算法。 RF、GBR、Adboost是三個最經(jīng)典的集成類算法,所謂集成類算法,就是集成了一些...
1. 方差與偏差 在前文中我們已經(jīng)提到了有關(guān)方差(Variance)與偏差(bias)的概念,這里系統(tǒng)的進行介紹。 首先我們先來介紹過擬合的概念。我們在最開始的時候就介紹過,...
1 集成學(xué)習(xí)算法 先講一點預(yù)備知識。 前面我們講了決策樹和隨機森林,決策樹是弱學(xué)習(xí)器,隨機森林是集成了弱學(xué)習(xí)器的強學(xué)習(xí)器。 事實上,集成算法有三種:Bagging,Boost...
1. 算法 有了上一節(jié)的基礎(chǔ),我們現(xiàn)在來學(xué)習(xí)如何集成所有天氣學(xué)家的意見,綜合輸出結(jié)果。 顧名思義,隨機森林的“森林”,就是指集成許多棵決策樹,每一棵樹都有一個自己的分類結(jié)果,...
1. 算法 多層感知機(MLP)和后向傳播算法(BP)是神經(jīng)網(wǎng)絡(luò)的入門算法,是復(fù)雜的神經(jīng)網(wǎng)絡(luò)的基本構(gòu)架,也就是神經(jīng)層搭建與反向傳播計算系數(shù)這兩步。很多人不把MLP當(dāng)神經(jīng)網(wǎng)絡(luò),...
1. 算法 Logistic Regression 雖然被稱為回歸,但其實際上是分類模型,邏輯函數(shù)的形狀有些像階躍函數(shù),對于二分類問題,其實就是一個階躍函數(shù),當(dāng)x取某一些值的...
1. 算法 1.1 從最簡單的數(shù)學(xué)問題說起 要理解SVM算法,首先就要理解SVM解決的問題是什么,損失函數(shù)是如何推導(dǎo)來的,這是最關(guān)鍵最基礎(chǔ)的部分,請看下面這張圖。 我們以二維...
1.算法 前面講了復(fù)雜冗長的SVM、Logistics、BP,現(xiàn)在我們講一個簡單易懂的降維算法PCA,也是最廣為人知的算法,需要一點簡單的線性代數(shù)基礎(chǔ),具體看文末鏈接,已經(jīng)講...
1.算法 1.1從最簡單的普通線性回歸談起 Q:已知一維特征空間中的一系列樣本點{(xi, yi), i = 1,2,3...n},注意這里是一維特征空間,雖然可以在二維平面...
1. 基本概念 (X, y):樣本點,有k維特征:(x1, x2, x3......xk),通常我們認為這些樣本點散落在k維的特征空間內(nèi),對應(yīng)類別標(biāo)簽或者回歸值為y,一般情況...
1. 算法 KNN算法也是使用距離來衡量樣本點之間的相似性,但其與Kmeans中的K含義不同。 KNN的決策過程: 1、計算測試集樣本點到訓(xùn)練集中每個樣本點的距離 2、按照距...
1. 算法 Kmeans應(yīng)該算是最經(jīng)典最易懂的機器學(xué)習(xí)算法之一。其基本數(shù)學(xué)思想是期望最大化(EM),簡單概況就是物以類聚,以特征空間中不同樣本之間的“距離”遠近作為劃分的依據(jù)...