343页结论的证明#

证明 \(E(\pmb{X}^{\text{T}})=E(\pmb{X})^{\text{T}}\)

《机器学习数学基础》的 343 页,有这样一句话:

对于多维随机变量 \(\pmb{X}\) ,根据数学期望的定义,有:\(E(\pmb{X}^{\text{T}})=E(\pmb{X})^{\text{T}}\)

有读者对这句话中的结论不理解,希望能给出有关证明。

证明过程见下。

证明:

随机变量 \(\pmb{X}\) 是一个向量,于是数学期望可以写成:

\[\begin{split} E(\pmb{X}) =\begin{pmatrix} E(X_1)\\E(X_2)\\\vdots \\E(X_n)\end{pmatrix} \end{split}\]

其中, \(X_i\)\(\pmb{X}\) 的第 \(i\) 个分量。

\(\pmb{X}\) 的转置 \(\pmb{X}^{\text{T}}\) ,如果用分量的形式,可以将 \(\pmb{X}\) 写成:\(\pmb{X}=(X_1,X_2,\cdots,X_n)^{\text{T}}\) ,也就是有:\(\pmb{X}^{\text{T}}=(X_1,X_2,\cdots,X_n)\) 。于是:

\[ E(\pmb{X}^\text{T}) = \begin{pmatrix} E(X_1) & E(X_2) & \dots & E(X_n) \end{pmatrix} \]

再对 \(E(\pmb{X})\) 求转置,则得到:

\[\begin{split} E(\pmb{X})^\text{T} = \begin{pmatrix} E(X_1) \\ E(X_2) \\ \vdots \\ E(X_n) \end{pmatrix}^\text{T} = \begin{pmatrix} E(X_1) & E(X_2) & \dots & E(X_n) \end{pmatrix} \end{split}\]

比较上述两个式子,于是得到结论:

\[ E(\pmb{X}^{\text{T}})=E(\pmb{X})^\text{T} \]

证毕。