主成分根據(jù),多維字段分析降維成幾個成分
from sklearn.decomposition import PCA
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
rng=np.random.RandomState(5)
data=np.dot(rng.rand(2,2),rng.randn(2,200)).T
df=pd.DataFrame({'X1':data[:,0],'X2':data[:,1]})
plt.scatter(df['X1'],df['X2'],alpha=0.5,marker='.')
pca=PCA(n_components=1)# 降維為幾維
pca.fit(df)
#特征值和特征向量
print(pca.explained_variance_)#特征值
print(pca.components_)# 返回具有最差方差的成分特征向量
print(pca.explained_variance_ratio_)# 返回所保留的n個成分各自的方差百分比
print(pca.n_components_) #返回保留的成分個數(shù)n
x_pca=pca.transform(df) #主成分
print(x_pca.shape)
x_new=pca.inverse_transform(x_pca)#將降維后的數(shù)據(jù)轉(zhuǎn)換為原始數(shù)據(jù)
print(x_new.shape)
plt.scatter(df['X1'],df['X2'],alpha=0.5,marker='.')
plt.scatter(x_new[:,0],x_new[:,1],alpha=0.5,marker='.',color='r')
多維數(shù)組降維
# 多維數(shù)組的降維
from sklearn.datasets import load_digits
digits=load_digits()
print(digits.keys())
print('數(shù)據(jù)形狀為:% i條',digits.data.shape)
print(digits.data[:2])
pca=PCA(n_components=2)
projected=pca.fit_transform(digits.data)
print('降維前的維度:',digits.data.shape)
print('降維后的維度:',projected.shape)
print(pca.explained_variance_)#特征值
print(pca.components_.shape)# 特征向量 有幾個特征值就有幾組特征向量,因為特征向量是旋轉(zhuǎn)方向,特征值是縮放比例 2個特征值就代表在兩個方向縮放值
幾個特征向量對應幾個特征空間
pca=PCA(n_components=10)
projected=pca.fit_transform(digits.data)
pca.explained_variance_ratio_
s=pca.explained_variance_
c_s=pd.DataFrame({'b':s,'b_sum':s.cumsum()/s.sum()})#cumsum()是累加值 截止第幾行的累加值
c_s['b_sum'].plot(style='--ko',figsize=(10,4))# 使用累計數(shù)cumsum占比,帕累托分析2/8原則分析plot固定畫法
plt.axhline(0.85,color='r',linestyle='--',alpha=0.8)#axhline從Y軸某個值開始劃線一個與X軸平行的線
plt.text(6,c_s['b_sum'].iloc[6]-0.08,'85%',color='r')#text文本內(nèi)容說明
c_s['b_sum'].iloc[6]#iloc根據(jù)索引獲取具體數(shù)據(jù) loc 獲取的是行標簽

image.png