引言
终于到了课程的后半部分,它的主题是关于 determinants 和 eigenvalues 的。
Properties of Determinants
教授在整个 lecture 18 中介绍了 Determinants 的10个属性。The determinant is a number associated with any square matrix; we’ll write it as det A or |A|. 文章 summary 中已经把这10个属性整理地很清楚了,没有什么好补充的了。
Determinant Formulas and Cofactors
通过上个小节中介绍的属性 3(b),可以推导出求 2×2 矩阵的行列式的公式,如下图所示。从这个推导过程中可以看出,我们先拆分第一行,得到2个矩阵,然后再把得到的这个2个矩阵分别拆分得到4个矩阵。
从这个模式中,不难得到3×3矩阵的行列式的公式:我们先拆分第一行,会得到3个矩阵,然后再分别拆分这3个矩阵的第2行,就会得到9个矩阵,然后再分别拆分这9个矩阵的第3行,会得到27个矩阵。幸运的是,这27个矩阵中会得到很多的0,就像2×2 矩阵那样,问题是哪些矩阵会是0呢?从那个2×2 矩阵就可以看出来,同一列上存在超过1个非0元素的矩阵就会为0。因此,这个3×3的矩阵的非0项有 3!=6 个,因此对于 n×n 的矩阵来说,就有 n! 个非0项。这是因为,第1行有n种选择,由于它占了一列,第2行就只有 n-1 种选择了,以此类推,你动手试试马上就明白了。
Cofactor formula 实际上就是重写我们上面得到的 determinant Formulas,下图中是沿着 row 1 的 cofactor,你也沿着其它的 rows 计算,哪个 rows 更容易得到矩阵的 determinant 就用哪个。在下图可以看到,第1行的每个元素乘以括号中的 cofactors,不难发现,each cofactor is (plus or minus) the determinant of a 2×2 matrix. 那么如何决定是正的还是负的 determinant 呢?用
在这个 lecture 中,教授用上面得到的公式计算了一下 Tridiagonal matrix 的行列式,we get a sequence which repeats every six terms. 计算过程也很简单,请参考:Tridiagonal matrix
无论是 Determinant Formulas and Cofactors 都是用来求一个矩阵的 determinant 的,对于一个矩阵来说,哪个简单就用哪个方法求解。
Cramer’s Rule, Inverse Matrix and Volume
在前面的小节中,我给出了一个求矩阵的逆的算法,即通过对
要想证明上述公式的正确性,只需要证明
如果你已经理解了 cofactors,Cramer’s Rule 也很好理解,实际的计算中它并没有多大作用,它只不过给了另一种角度去看待公式。计算 inverses 还是用消元来的更有效,这里就不多说它了。
最后是行列式与体积之间的关系:|det A|=volume of box, box 的边是矩阵 A 的列向量。在前面,我已经总结了关于行列式的10个属性,后7个属性是前面3个属性衍生出来的,因此想证明它们的关系,我们只需要证明 volume of box 也满足前面3个属性,证明很简单,不多说了,看一下 lecture 20 马上就能明白了。给出三角形3个顶点的坐标,下图是用行列式计算其面积的公式,在某些情况下,用行列式计算面积要比直接算更为简单,这个公式也更容易记住。同时建议参考一下我总结的多变量微积分的小节:
Eigenvalues and Eigenvectors
从几何的角度看 eigenvectors:当矩阵 A 作用于向量 x 时,输出的结果平行 x. 写成代数的形式就是:
首先,把等式变换成:
接下来谈谈矩阵的对角化。If A has n linearly independent eigenvectors, we can put those vectors in the columns of a (square, invertible) matrix S. 如下图所示,我们可以得到:
接下来谈谈矩阵 A 的指数。一种角度是:如果
从上面的推导过程可以看到,上面得到的所有结论依赖一个条件:A 要有 n 个 independent eigenvectors,否则结论都不成立。如果矩阵 A 的所有 eigenvalues 都不相同,那么它就保证有 n 个 independent eigenvectors. 幸运的是,大多数的矩阵都会有不同的 eigenvalues.
注意:从
Eigenvalues 和 Eigenvectors 的重要属性
1、Eigenvectors with Distinct Eigenvalues are Linearly Independent
2、Singular Matrices have Zero Eigenvalues
3、假设矩阵A是一个大小为n,nonsingular 的方阵,那么它具有下面的性质:
- A row-reduces to the identity matrix
- The null space of A contains only the zero vector
- The linear system has a unique solution for every possible choice of b
- The columns of A are a linearly independent set
- The rank of A is n
- The determinant of A is nonzero
-
λ=0 is not an eigenvalue of A
4、Suppose A is a square matrix and
5、Suppose A is a square nonsingular matrix and
6、Suppose A is a square matrix and
7、Suppose that A is a square matrix of size n, then A cannot have more than n distinct eigenvalues.
8、如果一个矩阵的特征值没有0存在(即它不是 Singular),那么它就有 full rank n; 反之,如果它的特征值有0,那么它的 rank=n-r,其中 r 是 nullsapce 的 dimension.
9、特征值的和 = trace
10、特征的乘积 = 行列式
关于每条属性的证明,有兴趣的同学请参考:Properties of Eigenvalues and Eigenvectors
Symmetric Matrices and Positive Definiteness
如果一个矩阵有特殊的属性,那么它的特征值和特征向量很有可能有特征的属性。对于 Symmetric Matrices 的特征值和特征向量来说,它有以下2个特殊属性:
- A symmetric matrix has only real eigenvalues
- The eigenvectors can be chosen orthonormal
教授在课上给出了属性1的证明,很简单,这里就不总结了,属性2教授的书中也给出了证明。有了上面的这2个属性,我们就可以把上面得到的对角化公式,
通过上图的结果可以总结出:The matrix
对于一个大的矩阵来说,用
number of positive pivots = number of positive eigenvalues
Positive Definite Matrix 有以下3个特殊的属性:
- 是一个 symmetric matrix
- 它所有的 pivots 和 eigenvalues 是正的
- 它所有的 subdeterminants(即从矩阵的左上角开始,1×1,2×2,….,n×n 的矩阵的行列式) 是正的
不难发现,这3个属性是可以相互推导出来的。上面已经说过了如果一个矩阵为 symmetric,那么 pivots 和 eigenvalues 的正负的个数是一样的。因此,如果 pivots 都是正的,那么它的 eigenvalues 也一定都是正的; 如果它的 eigenvalues 都是正的,那么 subdeterminants 也都是正的,因为行列式=特征值的乘积。
我们有以下4种方法来测试来测试一个 symmetric matrix 是否为 positive definite?如下图所示:
上面的4种方式中,通常 determinants test 给以我们最快的速度来得到结果。第4种方法可以让我得到一个 quadratic form 的多项式,比如下图中的例子,其实有一个更简单的方法可以直接得到函数,不需要像下图那样用矩阵的乘法去计算,这个方法就是:对角线上的元素直接就是每个变量平方前面的系数,非对角线上的不同变量之间组合前面的系数,吉佬在 lecture 27 中的 42:55 就用的这个方法直接写出来的。
得到了函数,那么如何判断它是否始终大于0呢?一种是用完全平方的方法,这种方法也有个技巧:平方项前面的系数就是矩阵消元过后的 pivot,其它的系数是消元过程中的乘子,Positive definite matrices and minima 中的第3页中有一个2×2矩阵的例子,recitation video 中有3×3矩阵的例子; 另一种方法就是用导数了。
记得我先前总结的 second derivative 测试判断 可以用 Positive Definite Matrix 来联系一下。一个二元变量的函数的二阶导矩阵可以写成 Hessian matrix 的形式:
Similar matrices and Jordan form
1、Given a symmetric positive definite matrix A, is its inverse also symmetric and positive definite? The answer is YES!
证明:
Ax=λx ,两边同时乘以A−1 得:A−1Ax=λA−1x ,因此x=λA−1x ,两边同时除以λ 得:A−1x=1λx ,因此可以得到 A 与A−1 之间的特征值的关系是互为倒数。那么,如果 A 的特征值是正的,A−1 就也是正的,所以A−1 是 positive definite. 题外话:如果 A 有一个特征值是0,这会导致10 ,因此这种情况下,A−1 不存在,即如果 A 有一个特征值是0,那么它是 singular 的,与我们先前所学一致。
2、If A and B are positive definite, is A + B positive definite?
证明:由于 A 和 B 都是 positive definite,那么
xTAx>0 和xTBx>0 ,因此xT(A+B)x>0 ,所以 A + B 是 positive definite.
3、假设 A 是 rectangular(m×n) 的矩阵,那么
证明:Ax is a vector, so
xT(ATA)x=(xTAT)(Ax)=(Ax)T(Ax)=|Ax|2≥0 . The only remaining question is whether Ax = 0. If A has rank n (independent columns), thenxT(ATA)x=0 only if x = 0 and A is positive definite. 如果 rank 小于 n 的话,它也是个 positive semi-definite.
Another nice feature of positive definite matrices is that you never have to do row exchanges when row reducing – there are never 0’s or unsuitably small numbers in their pivot positions.
接下来总结一下相似矩阵(Similar matrix)。Two square matrices A and B are similar if
If A has a full set of eigenvectors we can create its eigenvector matrix S and write
When we diagonalize A(
Singular Value Decomposition
最初我们把一个矩阵 A 分解成
如果2个向量是相互垂直的,那么经过 linear transformation 以后它们也一定是垂直的,虽然是垂直的,但是如果是任意的向量,你不能保证它被线性变换到哪个空间。因此,这里我们设置2个特殊的子空间,它们分别是矩阵的 row space 和 column space. 我们的目标是:把 row space 上的 orthonormal 的 basis 线性变换到 column space 上。当然了,给定的 basis 并不一定是 orthonormal 的,但是通过 Gram-Schmidt 把它转换成 orthonormal 的。如下图所示,通过 Gram-Schmidt,
有了公式,现在的问题是如何求出
参考资料
Repeated Eigenvalues and Symmetric Matrices
Some Facts on Symmetric Matrices
For given n × n matrix A singular matrix, prove that rank(adj A)
Is adjoint of singular matrix singular? What would be its rank?