0. Motivation Decision Tree Classifier, repetitively divides the working area(plot) int...
7.1 std::thread std::thread用于創(chuàng)建一個(gè)執(zhí)行的線程實(shí)例,所以它是一切并發(fā)編程的基礎(chǔ),使用時(shí)需要包含 頭文件 7.2 std::mutex, std:...
5.1 RAII 與引用計(jì)數(shù) 智能指針包括std::shared_ptr/std::unique_ptr/std::weak_ptr,使用它們需要包含頭文件 <memory>...
4.1 std::array 和 std::forward_list std::array會在編譯時(shí)創(chuàng)建一個(gè)固定大小的數(shù)組,std::array不能夠被隱式的轉(zhuǎn)換成指針 st...
2.1 常量 nullptr關(guān)鍵字,專門用來區(qū)分空指針、0。而nullptr的類型為nullptr_t,能夠隱式的轉(zhuǎn)換為任何指針或成員指針的類型,也能和他們進(jìn)行相等或者不等的...
6.1 邏輯斯諦回歸模型 6.1.1 邏輯斯諦分布(logistic distribution) 設(shè)X是連續(xù)隨機(jī)變量,X服從邏輯斯蒂分布是指X具有以下分布函數(shù)和密度函數(shù): 分...
1.樸素貝葉斯法是典型的生成學(xué)習(xí)方法。由訓(xùn)練數(shù)據(jù)集學(xué)習(xí)聯(lián)合概率分布P(X,Y),然后求得后驗(yàn)概率分布P(Y|X)。利用訓(xùn)練數(shù)據(jù)學(xué)習(xí)P(X|Y)和P(Y)的估計(jì),得到聯(lián)合概率分...
Args: learning_rate: A Tensor or a floating point value. The learning rate.控制了權(quán)重的更新比...
功能:Computes softmax cross entropy between `logits` and `labels` `logits` and `labels` m...
def softmax(logits, axis=None, name=None, dim=None): This function performs the equival...
功能:根據(jù)tensor的維度計(jì)算最大值。 input_tensor: The tensor to reduce. axis: The dimensions to reduce...
功能:生成卷積核,對輸入層進(jìn)行卷積,產(chǎn)生輸出的tensor。 inputs:輸入一個(gè)tensor。 filters:integer:輸出空間的維度。 kernel_size:...
main.cc main():1.train(), 2.test(),3. quantize(), 4.printWordVectors(), 5.printSentence...
# -*- coding: utf-8 -*-import osdef alter(file,old_str,new_str,new_file_name): """ 將替...
1.Getting and preparing the data 每行包括:label,句子 >> head cooking.stackexchange.txt__label...