aim: when and how to create, when and how to avoid creating, how to ensure they are des...
aim: when and how to create, when and how to avoid creating, how to ensure they are des...
https://stackoverflow.com/questions/2950871/how-can-copyonwritearraylist-be-thread-safe...
代碼持續(xù)集成+應(yīng)用自動(dòng)化部署 github+jenkins+tomcat, ubuntu 18.04 1. 安裝Java sudo add-apt-repository pp...
第2章 組合與結(jié)構(gòu) 技術(shù)的三個(gè)定義: 1.技術(shù)是實(shí)現(xiàn)目的的一種手段【單數(shù)意義上的技術(shù)】 2.技術(shù)是實(shí)踐和元器件的集成【復(fù)數(shù),技術(shù)體】 3.技術(shù)是在某種文化中得以運(yùn)...
對(duì)稱密碼(對(duì)稱秘鑰加密) 在對(duì)稱密碼體系中,相同的密碼用來(lái)加密(encrypt)和解密(decrypt)報(bào)文,因此無(wú)論對(duì)發(fā)送者還是接受者,他們都知道秘鑰。加密和解密的過(guò)程如下...
Feedforward neural network, Deep feedforward network, Multi-layer perceptron XOR Gradie...
概述 樸素貝葉斯是基于貝葉斯定理和特征條件獨(dú)立假設(shè)的分類方法。首先根據(jù)特征條件獨(dú)立假設(shè)計(jì)算出x,y的聯(lián)合概率分布,然后利用貝葉斯定理找到后驗(yàn)概率最大的y。 模型 樸素貝葉斯不...
概述 K-近鄰算法(k-NN)是一個(gè)可以用來(lái)分類算法(也可以用來(lái)回歸,本文不討論)。基本思路是給定一個(gè)標(biāo)記好的數(shù)據(jù)集,在數(shù)據(jù)集的特征空間選取一個(gè)距離度量標(biāo)準(zhǔn),對(duì)于需要分類的數(shù)...
概括 Perceptron學(xué)習(xí)算法是1957年由Rosenblatt提出的分類算法,是SVM和Neural Network的基礎(chǔ)。Perceptron是一個(gè)線性分類器,基于誤...
概述 最大熵模型是根據(jù)最大熵原理推導(dǎo)出的分類模型,屬于對(duì)數(shù)線性模型。模型學(xué)習(xí)過(guò)程使用拉格朗日對(duì)偶法。 特征函數(shù) 特征函數(shù)描述輸入x和輸出y之間的某一個(gè)事實(shí),定義為 在NLP中...
概述 邏輯斯蒂回歸是一個(gè)分類算法,它通過(guò)將輸入值進(jìn)行線性合并,然后通過(guò)sigmoid函數(shù)將線性合并的值映射到(0,1)之間,得到類別的概率表示。 sigmoid函數(shù): 有 邏...
定義 如果輸入的特征向量是實(shí)數(shù)向量則輸出的分?jǐn)?shù)為: , 其中,是一個(gè)權(quán)重向量,而f是一個(gè)函數(shù),該函數(shù)可以通過(guò)預(yù)先定義的功能塊,映射兩個(gè)向量的點(diǎn)積,得到希望的輸出。權(quán)重向量是從...
非線性分類 輸入空間中有由分割的數(shù)據(jù)集,圓內(nèi)為正例,圓外為負(fù)例,此時(shí)用超平面是無(wú)法正確分離數(shù)據(jù)集的。 定義映射,在新空間中數(shù)據(jù)集可以用超平面分離。 核函數(shù) 設(shè)X是輸入空間,H...
線性代數(shù)回顧 矩陣分解(matrix decomposition):將方陣分解成多個(gè)矩陣因子,并且這幾個(gè)矩陣因子都可以從方陣的特征向量導(dǎo)出。 矩陣對(duì)角化定理:令S為MxM的實(shí)...