线性代数导论

线性代数导论

《Introduction to Linear Algebra (5th)》读书笔记

chapter 1 Introduction to Vectors

  • 线性代数的核心在于两种向量操作–向量和(adding vectors)和数量积(multiplying by scalars),由这两种操作而有了线性组合(linear combination)
  • 线性代数最为重要的特征在于它能将高维空间表示地简洁明了
  • 证明向量$v$、$w$垂直时,$v \cdot w = 0$:
    由Pythagoras定律(勾股定理):$$\vert \vert v \vert \vert^2 + \vert \vert w \vert \vert^2 = \vert \vert v - w \vert \vert^2$$
    即:$$(v_1^2 + v_2^2) + (w_1^2 + w_2^2) = (v_1 - w_1)^2 + (v_2 - w_2)^2$$
    化简有:$$v_1w_1 + v_2w_2 = 0$$
  • 点乘的结果表明了向量之间的夹角大小,且两个单位向量(unit vector)的点乘$v \cdot w = \cos \theta$。因此,如果:$$v = (\cos \beta, sin \beta)$$ $$w = (\cos \alpha, sin \alpha)$$ $$\theta = \beta - \alpha$$ 则有:$$v \cdot w = \cos \alpha \cos \beta + sin \alpha sin \beta =\cos (\beta - \alpha) = \cos \theta$$
  • $u$、$w$非单位向量时又有:$$ \frac{v \cdot w}{\vert \vert v \vert \vert \vert \vert w \vert \vert} = \cos \theta$$
    由上式又可以得到Cauchy-Schwarz-Buniakowsky不等式:$$\vert v \cdot w \vert \le \vert \vert v \vert \vert \vert \vert w \vert \vert$$
    当$v = (a, b)$、$w = (b, a)$时,上式有:$$2ab \le a^2 + b^2$$
    令$x = a^2$、$y = b^2$,则有几何平均(Geometric mean)、算术平均(Arithmetic mean)之间的关系:$$\sqrt{xy} \le \frac{x + y}{2}$$
    还可以得到三角不等式:$$\vert \vert v + w \vert\vert \le \vert \vert v \vert \vert + \vert \vert w \vert \vert $$
    因为:$$\vert \vert v + w \vert\vert^2 = (v + w)\cdot(v + w) =\vert \vert v \vert \vert^2 + 2v\cdot w + \vert \vert w \vert \vert^2$$ $$\le \vert \vert v \vert \vert^2 + 2\vert v \cdot w \vert + \vert \vert w \vert \vert^2$$ $$\le \vert \vert v \vert \vert^2 + 2\vert\vert v \vert\vert \cdot \vert\vert w \vert\vert + \vert \vert w \vert \vert^2$$ $$ = (\vert \vert v \vert \vert + \vert \vert w \vert \vert)^2$$

chapter 2 Solving Linear Equations

  • $Ax = b$的列图(column picture)表示的了$A$的$n$个行向量的一种线性组合可以产生向量$b$,行图(row picture)则表示了有$m$行产生的$m$个等式所表示的$m$个个平面有共同点$x$
  • 单位矩阵(Identity Matrix)、消元矩阵(Elimination Matrix)、置换矩阵(Permutation Matrix)、增广矩阵(Augmented Matrix)、分块矩阵(Block Matrix)
  • 块消元:$$ \begin{bmatrix} I & 0 \\ -CA^{-1} & I \end{bmatrix} \begin{bmatrix} A & B \\ C & D \end{bmatrix} = \begin{bmatrix} A & B \\ 0 & D - CA^{-1}B \end{bmatrix}$$
    其中,$D - CA^{-1}B$被称为舒尔补(Schur Complement)
  • 对角优势矩阵(Diagonally Dominant Matrix)一定可逆,其定义如下:$$\vert a_{ii} \vert \gt \sum_{j \neq j} \vert a_{ij} \vert$$
  • 可逆矩阵$A$的顺序主子式$A_k$均为可逆阵,则$A$有$LU$分解:$PA=LU=LDU$,其中$L$中保存了高斯消元的过程,求解线性方程组时,可以利用此式,先求解$Lc=b$,再求解$Ux=c$
  • 当$l_{ii}=1$且$u_{ii}\neq 0$时,$A$的$LU$分解唯一
  • 有了$A^T$,$Ax$与$y$的内积等于$x$与$A^Ty$的内积,即$(Ax)^Ty = x^T(A^Ty)$
  • 对于任意的矩阵$A$,都有$S = A^TA$,其中$S$表a示对称矩阵(Symmetric),因为$(A^TA)^T = A^TA$,$AA^T$一般不等于$A^TA$,它也有该性质
  • 对称矩阵可被分解为$S=LDL^T$,置换矩阵$P^{-1} = P^T$

chapter 3 Vector Sapces and Subspaces

  • 参考资料

  1. Introduction to Linear Algebra-豆瓣
  2. THU线性代数-学堂在线

更新历史:

  • 2019.06.30 chapter 1
  • 2019.07.04 chapter 2
# Math

评论

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×