AI學習筆記之數(shù)學基礎一(線性代數(shù))

線性代數(shù)是人工智能領域的基礎,本科期間學完就還給老師了,考研的時候重視的是計算,很多概念似是而非,不知道有啥用,現(xiàn)在又拾起。又有新的領悟。

線性代數(shù)的意義

  • 線性代數(shù)提供了?種看待世界的抽象視角:萬事萬物都可以被抽象成某些特征的組合,并在由預置規(guī)則定義的框架之下以靜態(tài)和動態(tài)的方式加以觀察。
  • 是現(xiàn)代數(shù)學和以現(xiàn)代數(shù)學作為主要分析方法的眾多學科的基礎。從量子力學到圖像處理都離不開向量和矩陣的使用。
  • 線性代數(shù)是用虛擬數(shù)字世界表示真實物理世界的工具。
  • 線性代數(shù)的本質在于將具體事物抽象為數(shù)學對象,并描述其靜態(tài)和動態(tài)的特性;

基本概念

  • 集合:元素常常有共性
  • 標量(scalar):一個標量 a 可以是整數(shù)、實數(shù)或復數(shù)。零維數(shù)組。
  • 向量(vector):多個標量 a1,a2,?,an 按一定順序組成一個序列。一維數(shù)組

向量的實質是 n 維線性空間中的靜止點;

  • 矩陣(matrix):將向量的所有標量都替換成相同規(guī)格的向量。二維數(shù)組

  • 張量(tensor):矩陣中的每個標量元素再替換為向量的話,張量是高階的矩陣。三維等高維數(shù)組。

  • 范數(shù)(norm):對單個向量大小的度量,描述的是向量自身的性質,其作用是將向量映射為一個非負的數(shù)值。

    通用的 L ^ p 范數(shù)定義如下:
  • 對?個給定向量,L^1 范數(shù)計算的是向量所有元素絕對值的和,L^2 范數(shù)計算的是通常意義上的向量長度,L^∞ 范數(shù)計算的則是向量中最大元素的取值。

  • 內積(inner product):計算兩個向量之間的關系。

    兩個相同維數(shù)向量內積的表達式為
  • 對應元素乘積的求和。

  • 內積能夠表示兩個向量之間的相對位置,即向量之間的夾角。一種特殊的情況是內積為 0,即(x,y)=0.在二維空間上,這意味著兩個向量的夾角為 90 度,即相互垂直。而在高維空間上,這種關系被稱為正交(orthogonality)。如果兩個向量正交,說明他們線性無關,相互獨立,互不影響。

  • 線性空間(linear space):一個集合的元素具有相同維數(shù)的向量(可以是有限個或無限個), 并且定義了加法和數(shù)乘等結構化的運算.
    在線性空間中,任意一個向量代表的都是 n 維空間中的一個點;反過來, 空間中的任意點也都可以唯一地用一個向量表示

  • 內積空間(inner product space):定義了內積運算的線性空間.

  • 正交基(orthogonal basis):在內積空間中,一組兩兩正交的向量構成這個空間的正交基.
    正交基的作用就是給內積空間定義出經(jīng)緯度。?旦描述內積空間的正交基確定了,向量和點之間的對應關系也就隨之確定。

  • 描述內積空間的正交基并不唯一。對二維空間來說,平面直角坐標系和極坐標系就對應了兩組不同的正交基,也代表了兩種實用的描述方式.

  • 標準正交基(orthonormal basis):正交基中基向量的 L^2范數(shù)都是單位長度 1

  • 線性變換(linear transformation):線性變換描述了向量或者作為參考系的坐標系的變化,可以用矩陣表示。
    線性空間的一個重要特征是能夠承載變化。當作為參考系的標準正交基確定后,空間中的點就可以用向量表示。當這個點從一個位置移動到另一個位置時,描述它的向量也會發(fā)生改變。
    在線性空間中,變化的實現(xiàn)有兩種方式:一是點本身的變化,二是參考系的變化。
    在第一種方式中,使某個點發(fā)生變化的方法是用代表變化的矩陣乘以代表對象的向量??墒欠催^來,如果保持點不變,而是換一種觀察的角度,得到的也將是不同的結果。

  • 矩陣的作用就是對正交基進行變換。因此,對于矩陣和向量的相乘,就存在不同的解讀方式:Ax = y。

  • 向量 x 經(jīng)過矩陣 A 所描述的變換,變成了向量 y;也可以理解為一個對象在坐標系 A 的度量下得到的結果為向量 x,在標準坐標系 I(單位矩陣:主對角線元素為 1,其余元素為 0)的度量下得到的結果為向量 y。

  • 這表示矩陣不僅能夠描述變化,也可以描述參考系本身。

  • 表達式 Ax 就相當于對向量 x 做了一個環(huán)境聲明,用于度量它的參考系是 A。如果想用其他的參考系做度量的話,就要重新聲明。而對坐標系施加變換的方法,就是讓表示原始坐標系的矩陣與表示變換的矩陣相乘。

  • 特征值(eigenvalue):表示了變化的速度

  • 特征向量(eigenvector):表示變化的方向

    • Ax = λx
    • 其效果通常是對原始向量同時施加方向變化和尺度變化。
    • 有些特殊的向量,矩陣的作用只有尺度變化而沒有方向變化,也就是只有伸縮的效果而沒有旋轉的效果。對于給定的矩陣來說,這類特殊的向量就是矩陣的特征向量,特征向量的尺度變化系數(shù)就是特征值。
    • 特征值分解:求解給定矩陣的特征值和特征向量的過程。但能夠進行特征值分解的矩陣必須是 n 維方陣。
    • 奇異值分解:將特征值分解算法推廣到所有矩陣之上。

以上就是對線性代數(shù)的總結

?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容