本文是17年寫(xiě)的,至今過(guò)去多年,有一篇更好的文檔: https://superfastpython.com/python-asyncio/[https://superfast...
本文是17年寫(xiě)的,至今過(guò)去多年,有一篇更好的文檔: https://superfastpython.com/python-asyncio/[https://superfast...
數(shù)學(xué)問(wèn)題 1. 質(zhì)數(shù)篩 埃氏篩 利用當(dāng)前已經(jīng)找到的素?cái)?shù),從后面的數(shù)中篩去當(dāng)前素?cái)?shù)的倍數(shù),由預(yù)備知識(shí)一可知,當(dāng)前素?cái)?shù)已經(jīng)是篩去數(shù)的質(zhì)因子,如此下去能篩除所有之后的合數(shù),是一種比...
差不多了哈哈。。。
偏微分方程數(shù)值解目錄 拋物方程的有限差分方法馮諾依曼分析法追趕法Crank-Nicolson方法邊界條件 拋物型方程的有限差分方法 最為常見(jiàn)的拋物型偏微分方程就是熱傳導(dǎo)方程它本質(zhì)上其實(shí)是一個(gè)...
目錄 拋物方程的有限差分方法馮諾依曼分析法追趕法Crank-Nicolson方法邊界條件 拋物型方程的有限差分方法 最為常見(jiàn)的拋物型偏微分方程就是熱傳導(dǎo)方程它本質(zhì)上其實(shí)是一個(gè)...
什么是EfficientNet EfficientNet的設(shè)想就是能否設(shè)計(jì)一個(gè)標(biāo)準(zhǔn)化的卷積網(wǎng)絡(luò)擴(kuò)展方法,既可以實(shí)現(xiàn)較高的準(zhǔn)確率,又可以充分的節(jié)省算力資源。因而問(wèn)題可以描述成,...
1.導(dǎo)入機(jī)器學(xué)習(xí)常用的包 對(duì)數(shù)據(jù)進(jìn)行類(lèi)型轉(zhuǎn)換以及切分 2.xgboost 的兩種形式的使用方法 原生態(tài)的使用方法 這種方法需要將數(shù)據(jù)轉(zhuǎn)化為DMatrix這種xgb專有的數(shù)據(jù)類(lèi)...
標(biāo)簽: Mathjax 公式編輯 markdown 目錄 希臘字母 上標(biāo)與下標(biāo) 括號(hào)小括號(hào)與方括號(hào)大括號(hào)尖括號(hào)上取整下取整 求和與積分求和積分其他 分式與根式分式連分?jǐn)?shù)根式 ...
1.文本挖掘的分詞原理 在做文本挖掘的時(shí)候,首先要做的預(yù)處理就是分詞。英文單詞天然有空格隔開(kāi)容易按照空格分詞,但是也有時(shí)候需要把多個(gè)單詞做為一個(gè)分詞,比如一些名詞如“New ...
1. 圖與網(wǎng)絡(luò)的基本概念與數(shù)據(jù)結(jié)構(gòu) 一個(gè)圖是由一些點(diǎn)以及這些點(diǎn)之間得連線所組成的 兩點(diǎn)間不帶箭頭的連線為邊,帶箭頭的連線為弧 若邊,則稱e連接u與v;點(diǎn)u,v稱為e的頂點(diǎn) 如...
1. 非線性規(guī)劃 1.1 示例以及定義 如果目標(biāo)函數(shù)或約束條件中包含非線性函數(shù),就稱這種規(guī)劃問(wèn)題為非線性規(guī)劃問(wèn) 題。一般說(shuō)來(lái),解非線性規(guī)劃要比解線性規(guī)劃問(wèn)題困難得多。而且,也...
1.線性規(guī)劃的求解方法 線性規(guī)劃問(wèn)題的標(biāo)準(zhǔn)形式為:或者寫(xiě)成矩陣形式:一般來(lái)說(shuō)線性規(guī)劃包括單純形規(guī)劃和多目標(biāo)規(guī)劃 1.1單純形線性規(guī)劃 單純形法時(shí)從所有基本的可行解的一個(gè)較小部...
1. 曲線擬合 1.1 多項(xiàng)式擬合 polyfit(x,y,n) —— 其中多項(xiàng)式的系數(shù)為n說(shuō)明:x,y為數(shù)據(jù)點(diǎn),n為多項(xiàng)式階數(shù),返回p為冪次從高到低的多項(xiàng)式系數(shù)向量p。x...
1.符號(hào)運(yùn)算 1.1創(chuàng)建符號(hào)對(duì)象 sym() syms()其中syms()可以創(chuàng)建多個(gè)對(duì)象 1.2 例子 計(jì)算積分 計(jì)算矩陣行列式值,特征值,特征根 det() :計(jì)算行列式...
1.數(shù)據(jù)的導(dǎo)入和保存 1.1數(shù)據(jù)的導(dǎo)入 matlab中導(dǎo)入數(shù)據(jù)的函數(shù)通常為load matlab中常用的導(dǎo)入數(shù)據(jù)的函數(shù)為importdata,用法如下: 1.2 文件的打開(kāi) ...
概述 GBDT全稱Gradient Boosting Decison Tree,同為Boosting家族的一員,它和Adaboost有很大的不同。Adaboost 是利用前一...
1.集成學(xué)習(xí)的概念 集成學(xué)習(xí)通過(guò)建立幾個(gè)模型組合的來(lái)解決單一預(yù)測(cè)問(wèn)題,有時(shí)也被稱作多分類(lèi)系統(tǒng)(multi-classifier system)。它的工作原理是生成多個(gè)分類(lèi)器/...
本篇就對(duì)MarkDown簡(jiǎn)要做總結(jié),非常適合初學(xué)者快速入門(mén)??偟玫膩?lái)說(shuō),MarkDown是一種簡(jiǎn)單、輕量級(jí)的標(biāo)記語(yǔ)法,它是基于HTML之上,使用簡(jiǎn)潔的語(yǔ)法就代替了排版,最終可...
模型思想 多元線性回歸(multiple linear regression) 模型的目的是構(gòu)建一個(gè)回歸方程,利用多個(gè)自變量估計(jì)因變量,從而解釋和預(yù)測(cè)因變量的值。多元線性回歸...