可汗統(tǒng)計學(xué)

第一課,均值 中位數(shù)? 眾數(shù)

????均值(mean):集中趨勢的最常用測度值,目的是確定一組數(shù)據(jù)的均衡點。是一組數(shù)據(jù)x_{1} ,x_{2} ,x_{3} ...x_{n} 的樣本和除以樣本的數(shù)量n。

? ? \bar{x}  = \frac{\sum_{i=1}^nx_i }{n}  = \frac{x_{1}+x_{2}+...+x_{n} }{n}

????中位數(shù)(median):一組數(shù)據(jù)x_{1} ,x_{2} ,x_{3} ...x_{n} ,這群數(shù)據(jù)的一半的數(shù)據(jù)比它大,而另外一半數(shù)據(jù)比它小。

x_{median} = \begin{cases} x_{\frac{n+1}{2}}& { n為奇數(shù)}\\ \ \frac{ x_{\frac{n}{2}} +  x_{\frac{n}{2}+1}      }{ 2 }  & {n為偶數(shù) } \end{cases}

????眾數(shù)(mode):一組x_{1} ,x_{2} ,x_{3} ...x_{n} 中出現(xiàn)次數(shù)最多的數(shù)據(jù)值。



第二課,極差 中程數(shù)

????極差(range):一組數(shù)據(jù)x_{1} ,x_{2} ,x_{3} ...x_{n} 最大值最小值后所得數(shù)值。

{\displaystyle R=x_{\mathrm {max} }-x_{\mathrm {min} }}

????中程數(shù)(midrange):一組數(shù)據(jù)x_{1} ,x_{2} ,x_{3} ...x_{n} 最大數(shù)和最小數(shù)的平均值。

R=\frac{x_{\mathrm {max} }+x_{\mathrm {min} }}{2}



第三課——第十課為統(tǒng)計圖形課,在其他的專題討論



第十一課、集中趨勢mean,median,mode

????描述性統(tǒng)計量(descriptive):描述性統(tǒng)計量提供數(shù)據(jù)的簡要匯總??梢杂脭?shù)值或圖形方式匯總數(shù)據(jù)。例如,快餐店的經(jīng)理跟蹤一周內(nèi)午餐期間客戶的等待時間,并對數(shù)據(jù)進行匯總。

? ??推斷性統(tǒng)計量(inferential):推斷性統(tǒng)計使用從總體中隨機抽取的數(shù)據(jù)樣本,描述總體并對其進行推斷。當不方便或不可能檢查整個總體的每個成員時,推斷性統(tǒng)計非常有用。例如,測量銑床中制造的每個釘子的直徑可能不現(xiàn)實,但是您可以測量釘子的代表性隨機樣本的直徑并使用此信息概括生產(chǎn)的所有釘子的直徑。


第十二課,樣本和總體

????樣本(sample):從總體中選取的一部分。例如:3年二班同學(xué)身高。

樣本均值\bar{x}

\bar{x}  = \frac{\sum_{i=1}^nx_i }{n}

? ? 總體(population):研究對象的整個群體。例如:全中國人的身高。

總體均值\mu

\mu  = \frac{\sum_{i=1}^Nx_i }{N}


第十三課,離散趨勢

總體方差(variance):總體中變量離其平均值距離的平均。一組數(shù)據(jù)x_{1} ,x_{2} ,x_{3} ...x_{N}

\sigma^2  = \frac{\sum_{i =1}^N(x_i-\mu ) ^2}{N}

第十四課,離散趨勢

樣本方差(variance):樣本中變量離其平均值距離的平均。一組數(shù)據(jù)x_{1} ,x_{2} ,x_{3} ...x_{n}

S^2  = \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1}

到這你可能會想:為什么樣本方差中分母是n-1而不是n?好,那我們假設(shè)是n看看會怎樣:

\frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n}  =\frac{1}{n}\sum_{i=1}^n [(x_i-\mu ) +(\mu -\bar{x} )]^2

=\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2 +\frac{1}{n}\sum_{i=1}^n (\mu -\bar{x} )^2 +\frac{2}{n}\sum_{i=1}^n (x_i-\mu )  (\mu -\bar{x} )

=\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2  +2(\bar{x} -\mu )(\mu -\bar{x} ) + (\mu -\bar{x} )^2

=\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2  -(\bar{x}-\mu)^2

從上式可以看出除非:\mu =\bar{x} ,否則一定有

\frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n} <\sigma^2  = \frac{\sum_{i =1}^N(x_i-\mu ) ^2}{N}


再想為什么除以n-1不是n-2,n-3??請看:

E(\bar{x} ) = E(\frac{1}{n } \sum_{i=1}^nx_{i} ) = \frac{1}{n } \sum_{i=1}^nE(x_{i} )  = \mu

E(\bar{x}-\mu)^2 = E(\bar{x}-E(\bar{x} ))^2 = var(\bar{x} )

=\frac{1}{n^2 }  var( {\sum_{i=1}^nx_i }) = \frac{1}{n^2 } {\sum_{i=1}^nvar(x_i )} = \frac{n\sigma ^2}{n^2 } ?

=\frac{\sigma ^2}{n }

E(\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2  -(\bar{x}-\mu)^2)=\sigma ^2 - \frac{1}{n}\sigma ^2

=\frac{n-1}{n}\sigma ^2

所以有\frac{n}{n-1}E( \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n}) = E( \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1})  = \sigma ^2

S^2  = \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1}

而且我們可以直觀的看到隨著樣本總量n的增大,S^2會越接近\sigma ^2。


第十五課,標準差

總體標準差(population standard deviation):總體方差的平方根

\sigma =\sqrt{\frac{\sum_{i =1}^N(x_i-\mu ) ^2}{N}  }

樣本標準差(sample standard deviation):樣本方差的平方根

S = \sqrt{\frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1}  }


第十六課,諸方差公式

對上節(jié)的方差公式進行簡化:

\sigma^2= \operatorname{E}\left[X^2 - 2X\operatorname{E}[X] + (\operatorname{E}[X])^2\right] = \operatorname{E}\left[X^2\right] - 2\operatorname{E}[X]\operatorname{E}[X] + (\operatorname{E}[X])^2 = \operatorname{E}\left[X^2 \right] - (\operatorname{E}[X])^2

我們可以這樣記:平方的期望減掉期望的平方。也許你會想一個問題,既然都有方差了為什么還要標準差?原因是:標準差和均值的量綱(單位)是一致的,在描述一個波動范圍時標準差比方差更方便。

比如一個班男生的平均身高是170cm,標準差是10cm,那么方差就是100cm^2??梢赃M行的比較簡便的描述是本班男生身高分布是170±10cm,方差就無法做到這點。


第十七課,隨機變量

假設(shè)一個隨機試驗的可能結(jié)果(稱為基本事件)的全體組成一個基本空間Ω。那么,隨機變量是定義于Ω上的函數(shù),即對每一基本事件ωΩ,有一數(shù)值(ω)與之對應(yīng)。

例如拋一枚硬幣,定義隨機變量X(正面朝上) = 1,X(反面朝上) = 0。即當X=1時,我們說硬幣正面朝上。

如果X的取值是有限的或者是可數(shù)無窮盡的值:X={\left\{ x_{1} ,x_{2},...\right\} },則稱X為離散型隨機變量(discrete random variable)。如拋硬幣只有2個基本事件。

如果X由全部實數(shù)或者由一部分區(qū)間組成:X = \lbrace x | a\le x \le b \rbrace,- \infty < a < b < \infty

則稱X為連續(xù)型隨機變量(continues random variable)。如明天的降雨量,可以是1米,1.1米,1.11米...。


第十八課,概率密度函數(shù)

概率密度函數(shù)(probability density function):一個描述連續(xù)隨機變量的輸出值,在某個確定的取值點附近的可能性的函數(shù)。圖中,橫軸為隨機變量的取值,縱軸為概率密度函數(shù)的值,而隨機變量的取值落在某個區(qū)域內(nèi)的概率為概率密度函數(shù)在這個區(qū)域上的積分。

0<X<0.45:

例如:將某一區(qū)間分成n份并向其中隨機地扔球,那么f(x)越大,在點x附近的球就越多,也就是說,f(x)是小球的“密度”。


第十九課,二項分布

? ??排列(permutation):是將相異對象或符號根據(jù)確定的順序重排。每個順序都稱作一個排序。從n個元素中取k個元素進行排序。排序的數(shù)量為:

P_k^n = \frac{n!}{(n-k)!} = \frac{n\times (n-1)\times ...\times 1}{(n-k)\times (n-k-1)\times ...\times 1}

理解排序的關(guān)鍵在于有序。排序AB和排序BA是不一樣的。

? ? 組合(combination):從n個元素中取k個元素形成一個組合,組合不考慮順序。組合AB和BA是 一樣的。組合的數(shù)量為:

C_k^n ={n \choose k} = \frac{P_k^n}{k!} = \frac{n!}{k!(n-k)!}

聯(lián)系:排序相當于從n個元素中取k個元素,然后將這k個元素進行排序,于是有:

C_k^n*k! = P_{k}^n

有了以上背景,我們借助以下例子來理解二項分布。

例子:你賣三明治,70% 的人買雞肉三明治,其他的買豬肉。接下來的三個顧客買兩個雞肉,一個豬肉三明治的概率是多少?

我們來畫個數(shù)圖:


黃色為買兩個雞肉一個豬肉三明治的概率

由上看出P(CCP)P(CPC)出現(xiàn)的概率都為0.147,也就是說兩個雞肉和一個豬肉的各種組合方式出現(xiàn)的概率相同。那么我們很自然就會想到用兩個雞肉,一個豬肉三明治能形成的組合數(shù)量乘以組合出現(xiàn)的概率,是不是就能得到買兩個雞肉,一個豬肉三明治(事件A)的概率:

P(A) = C_{2}^3*0.7*0.7*0.3 = 3*0.147

答案確實如此,你要是不相信可以試試計算買買兩個豬肉,一個雞肉三明治的概率。

到此我們給出二項分布的總結(jié):試驗是獨立的,每個試驗只有兩個可能結(jié)果,每個試驗里的 "成功" 概率是不變的。假設(shè)每一次獨立實驗中P(B) = q,n個里有k個B(事件C)的概率:

P(C) = 組合的數(shù)量*組合出現(xiàn)的概率=C_{k}^n *q^k*(1-q)^{n-k}


第二十三課,期望值E(X)

????期望(expectation)是試驗中每次可能的結(jié)果乘以其結(jié)果概率的總和。如果

X離散的隨機變量,輸出值為\left\{ x_{1} ,x_{2} ...x_{n}  \right\} ,和輸出值相應(yīng)的概率為\left\{ p_{1} ,p_{2} ...p_{n}  \right\} (概率和為1)。則期望的公式:

{E}(X) = \sum_{i=1}^nx_{i} *p_{i}

如果X連續(xù)的隨機變量,對應(yīng)的概率密度函數(shù)為f(x),則期望公式為:

{E}(X) = \int_{-\infty}^\infty x f(x)\,\mathrmu0z1t8osx


第二十四課,二項分布的期望與方差

????設(shè)二項分的概率分布函數(shù)為:P(X=k)=\binom{n}{k}p^k(1-p)^{n-k},則有:

% <![CDATA[\begin{aligned}&E(X)\\=&\sum_{k=0}^{n}k\binom{n}{k}p^k(1-p)^{n-k}\\=&np\sum_{k=1}^{n}\binom{n-1}{k-1}p^{k-1}(1-p)^{n-k}\\=&np\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k}(1-p)^{n-1-k}\\=&np\end{aligned} %]]>


% <![CDATA[\begin{aligned}&Var(X)\\=&\sum_{k=0}^{n}k^2\binom{n}{k}p^k(1-p)^{n-k}-(np)^2\\=&\sum_{k=0}^{n}k(k-1)\binom{n}{k}p^k(1-p)^{n-k}+\sum_{k=0}^{n}k\binom{n}{k}p^k(1-p)^{n-k}-(np)^2\\=&n(n-1)p^2\sum_{k=0}^{n-2}\binom{n-2}{k}p^{k}(1-p)^{n-2-k}+np\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k}(1-p)^{n-1-k}-(np)^2\\=&np(1-p)\end{aligned} %]]>


第二十五課,泊松分布

????首先了解一下重要極限:

\lim_{n\to\infty}\left(1-{\lambda \over n}\right)^n=e^{-\lambda}

然后二項分布的定義:

P(X=k)={n \choose k} p^k (1-p)^{n-k}

最后,在二項分布中,如果試驗次數(shù)n很大,二項分布的概率p很小,且乘積λ = np 比較適中,則事件出現(xiàn)的次數(shù)的概率可以用泊松分布來逼近。事實上,二項分布可以看作泊松分布在離散時間上的對應(yīng)物。證明如下:

p=\frac{\lambda }{n} ,n趨近于無窮時P的極限:

\begin{align}\lim_{n\to\infty} P(X=k)&=\lim_{n\to\infty}{n \choose k} p^k (1-p)^{n-k} \\ &=\lim_{n\to\infty}{n! \over (n-k)!k!} \left({\lambda \over n}\right)^k \left(1-{\lambda\over n}\right)^{n-k}\\&=\lim_{n\to\infty}\underbrace{\left[\frac{n!}{n^k\left(n-k\right)!}\right]}_F\left(\frac{\lambda^k}{k!}\right)\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1} \\&= \lim_{n\to\infty}\underbrace{\left[ \left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \ldots \left(1-\frac{k-1}{n}\right)  \right]}_{\to 1}\left(\frac{\lambda^k}{k!}\right)\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1}      \\&= \left(\frac{\lambda^k}{k!}\right)e^{-\lambda}\end{align}


你看完上面的證明后,可能會產(chǎn)生說:恩,我知道泊松分布怎么來的了,但泊松分布具體是怎么個分布法?這里推薦一篇博文,同時感謝作者:

http://www.ruanyifeng.com/blog/2015/06/poisson-distribution.html


第二十七課,大數(shù)定理

????大數(shù)定律(law of large numbers),是描述相當多次數(shù)重復(fù)實驗的結(jié)果的定律,即樣本數(shù)量越多,則其樣本均值就有越高的概率接近總體期望。

其中X1,X2...Xn獨立同分布,{X}_n=\frac1n(X_1+\cdots+X_n)。則

當n \to \infty時,{X}_n \to \mu \quad\

例如:擲一枚骰子出現(xiàn)點數(shù)的期望是:E(X) = \frac{1}{6}  (1+2+3+4+5+6) = 3.5

隨著擲骰子次數(shù)的增加,出現(xiàn)點數(shù)的均值就有很高的概率接近期望。


第二十九,正態(tài)分布

????正態(tài)分布(normal distribution),是一種非常常見的分布,也叫鐘形分布。

若隨機變量X服從位置參數(shù)為\mu (期望),尺度常數(shù)\sigma^2(方差)的正態(tài)分布,記為:

X \sim N(\mu,\sigma^2),其概率密度為:f(x) = {1 \over \sigma\sqrt{2\pi} }\,e^{- {{(x-\mu )^2 \over 2\sigma^2}}}。


標準分數(shù)(z-score):

Z = {x - \mu \over \sigma}

Z值的量代表著原始值和總體期望之間的距離,是以標準差為單位計算。在原始分數(shù)低于平均值時Z則為負數(shù),反之則為正數(shù)。換句話說,Z值是從感興趣的點到均值之間有多少個標準差。

經(jīng)驗法則:假設(shè)一組數(shù)據(jù)具有近似于正態(tài)分布的概率分布。則約68.3%數(shù)值分布在距離平均值有1個標準差之內(nèi)的范圍,約95.4%數(shù)值分布在距離平均值有2個標準差之內(nèi)的范圍,以及約99.7%數(shù)值分布在距離平均值有3個標準差之內(nèi)的范圍。



第三十六課,中心極限定理

中心極限定理(central limit theorem):設(shè)從均值為\mu ,方差為\sigma ^2 的任意一個總體中抽取樣本量為n的樣本,當n充分大時,樣本均值\bar{X} 的抽樣分布近似服從均值為\mu ,方差為\frac{\sigma ^2}{n}  的正態(tài)分布。


以上就是中心極限定理的實質(zhì),它意味著不管總體服從什么樣的分布。只需要從總體中取n個的樣本,計算其均值\bar{X_1} 。然后重新從總體中取n個樣本計算其均值\bar{X_2} 。然后不斷取樣得到\bar{X_3},\bar{X_4}  ...\bar{X_m} 。然后抽樣均值分布與總體的關(guān)系為:

E(\bar{X})  = \frac{\bar{X_1} +\bar{X_2}+...+\bar{X_m}  }{m}  =\mu

\sigma_{\bar{x} }^2   *\sqrt{n}  = \sigma ^2

推薦一篇好的博文,同時感謝作者:

https://www.jqr.com/article/000534


第四十課,置信區(qū)間

另開一篇文章:置信區(qū)間


第四十七課,假設(shè)檢驗

另開一篇文章:


第四十九課,Z分布 VS T分布

如果總體方差已知且樣本足夠多(n\geq 30)時,則應(yīng)該用正態(tài)分布來估計總體均值。

Z=\frac{\overline{X}_n-\mu}{\frac{\sigma}{\sqrt{n}}}

但Z分布(正態(tài)分布)用在小樣本(n<30)時會產(chǎn)生很大的誤差,因此必須改用T分布以求準確。

T=\frac{\overline{X}_n-\mu}{\frac{S_n}{\sqrt{n}}}

如果總體方差未知則只能用T分布,T分布的自由度為n-1。

隨著T分布自由度的增大(樣本數(shù)量增大),T分布逐漸類似Z分布。如圖所示


隨著T分布自由度增大,不斷趨向正態(tài)分布


隨著自由度的增大,t統(tǒng)計量不斷近似z統(tǒng)計量:\lim\nolimits_{n\to\infty} t_{0.025}   =  z_{0.025}


第五十四課,期望的性質(zhì)

1.C是常數(shù):E(C)= C

2.C是常數(shù):E(CX) = CE(X)

3.E(X_1+X_2) = E(X_1)+E(X_2)

4.X,Y獨立,則E(XY)= E(X)E(Y)


第六十二課,線性回歸

????在統(tǒng)計學(xué)中,線性回歸(Linear regression)是利用稱為線性回歸方程的最小二乘法函數(shù)對一個或多個自變量和因變量之間關(guān)系進行建模的一種回歸分析。這種函數(shù)是一個或多個稱為回歸系數(shù)的模型參數(shù)的線性組合。只有一個自變量的情況稱為簡單回歸,多于一個自變量情況的叫做多元回歸。

例如簡單回歸中,通俗的解釋就是找一條直線y = mx + b,盡可能去擬合所有的點(x_i,y_i)。我們尋找目標直線的方法就是最小二乘法。即如圖所示,最合適的線性回歸線(Best fitting regression)就是使所有點Error的方差和最小的直線。


線性回歸

SE=\sum\nolimits_{i=1}^n[y_{i}  - (mx_i + b)]^2

? ? ? ? ? ?=\sum\nolimits_{i=1}^n[y_i^2-2y_i(mx_i+b)+(w^2x^2+b^2+2mx_ib)]^2

? ??????????=n\bar{y^2}  - 2mn \bar{xy}  - 2bn\bar{y} +m^2n\bar{x^2} +2mb\bar{x^2} +nb^2

其中\bar{x}  =\frac{1}{n} \sum\nolimits_{i=1}^n	x_i ? ? ??\bar{y}  =\frac{1}{n} \sum\nolimits_{i=1}^n	y_i ? ? ? ?\bar{xy}  =\frac{1}{n} \sum\nolimits_{i=1}^n	x_iy_i

? ? ? ? ? ?\bar{x^2}  =\frac{1}{n} \sum\nolimits_{i=1}^n	x_i^2 ? ? ? ? ?\bar{y^2}  =\frac{1}{n} \sum\nolimits_{i=1}^n	y_i^2

原函數(shù)SE是一個凸函數(shù),當SE分別對m,b求偏導(dǎo),且偏導(dǎo)為0時,得到SE_{min}



解方程組可得:


? ? ? 第六十八課,決定系數(shù)? ? ??

決定系數(shù)R^2,一般用在回歸模型用用于評估預(yù)測值和實際值的符合程度,R^2的定義如下:

R^2  = 1 - \frac{\mathrm{RSS}}{\mathrm{TSS}} = 1 - \frac{\sum\limits_i(y_i - f_i)^2}{\sum\limits_i(y_i - \bar{y} )^2}

其中f_i是回歸模型的估計值,\bar{y} \frac{1}{n}\sum\nolimits_{i=1}^n y_i	。

決定系數(shù)R^2可以通俗的解釋為:用回歸模型擬合相較于直接用均值擬合的提升。R^2越接近1,表示回歸分析中自變量對因變量的解釋越好。


第七十一課,協(xié)方差與線性回歸線

? ??協(xié)方差(Covariance)用于衡量兩個變量的總體誤差。而方差是協(xié)方差的一種特殊情況,即當兩個變量是相同的情況。

隨機變量XY的期望值分別為E(X)=\bar{X}  ,E(Y) = \bar{Y} ,則兩個隨機變量之間的協(xié)方差為:

\operatorname{cov}(X, Y) = \operatorname{E}((X - \bar{X} ) (Y - \bar{Y} ))=\operatorname{E}(X \cdot Y) -\bar{X} \bar{Y} = \bar{XY}  -\bar{X}\bar{Y}

我們回想一下線性回歸模型中的m=\frac{\bar{XY}  -\bar{X}\bar{Y} }{\bar{X}^2-\bar{X^2}  } ,其中Var(X)= \bar{X}^2-\bar{X^2}

所以有:m = \frac{\operatorname{cov}(X, Y) }{Var(X)} ,這便是線性回歸系數(shù)與協(xié)方差之間的關(guān)系。


第七十二課,\chi ^2分布

卡方分布(chi-square distribution?寫作\chi ^2分布),是一種常見的概率分布。k個獨立的標準正態(tài)分布變量的平方和服從自由度為k-1的卡方分布。

\chi ^2 = \sum_{i=1}^k\frac{(O_i-E)^2}{E}

其中:O_i為實際值,E為期望。實際的例子推薦一篇好文,同時感謝作者

https://www.shuxuele.com/data/chi-square-test.html


第七十五課,方差分析




第七十九課,演繹推理和歸納推理

演繹推理(inductive inference)是由普通性的前提推出特殊性結(jié)論的推理。是一個由一般到個別的過程。例子:

前提:所有人都是會死;蘇格拉底是人;

結(jié)論:蘇格拉底會死。

歸納推理是由特殊的前提推出普遍性結(jié)論的推理。例子:

前提:銳角三角形的面積等于底乘高的一半;直角三角形的面積等于底乘高的一半;鈍角三角形的面積等于底乘高的一半;

結(jié)論:凡三角形的面積等于底乘高的一半。

演繹推理和歸納推理的區(qū)別在于:假設(shè)前提正確,演繹推理的結(jié)果是正確的。而歸納推理的結(jié)果不一定是正確的。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容