当前位置: 首页 > news >正文

上海网站制作比较好的公司做网站需要缴什么费用

上海网站制作比较好的公司,做网站需要缴什么费用,怎么查找自己的企业邮箱,网站更换标题本文是斯坦福大学CS 229机器学习课程的基础材料#xff0c;原始文件下载 原文作者#xff1a;Zico Kolter#xff0c;修改#xff1a;Chuong Do#xff0c; Tengyu Ma 翻译#xff1a;黄海广 备注#xff1a;请关注github的更新#xff0c;线性代数和概率论已经更新完毕… 本文是斯坦福大学CS 229机器学习课程的基础材料原始文件下载 原文作者Zico Kolter修改Chuong Do Tengyu Ma 翻译黄海广 备注请关注github的更新线性代数和概率论已经更新完毕。 CS229 机器学习课程复习材料-线性代数 目录 CS229 机器学习课程复习材料-线性代数 线性代数复习和参考 1. 基础概念和符号 1.1 基本符号2.矩阵乘法 2.1 向量-向量乘法2.2 矩阵-向量乘法2.3 矩阵-矩阵乘法3 运算和属性 3.1 单位矩阵和对角矩阵3.2 转置3.3 对称矩阵3.4 矩阵的迹3.5 范数3.6 线性相关性和秩3.7 方阵的逆3.8 正交阵3.9 矩阵的值域和零空间3.10 行列式3.11 二次型和半正定矩阵3.12 特征值和特征向量3.13 对称矩阵的特征值和特征向量4.矩阵微积分 4.1 梯度4.2 黑塞矩阵4.3 二次函数和线性函数的梯度和黑塞矩阵4.4 最小二乘法4.5 行列式的梯度4.6 特征值优化 线性代数复习和参考 1. 基础概念和符号 线性代数提供了一种紧凑地表示和操作线性方程组的方法。 例如以下方程组 \[4x_1 − 5x_2 −13 \] \[−2x_1 3x_2 9 \] 这是两个方程和两个变量正如你从高中代数中所知你可以找到 \(x_1\) 和 \(x_2\) 的唯一解(除非方程以某种方式退化例如如果第二个方程只是第一个的倍数但在上面的情况下实际上只有一个唯一解)。 在矩阵表示法中我们可以更紧凑地表达 \[Ax b \] \[\text { with } A\left[\begin{array}{cc}{4} {-5} \\ {-2} {3}\end{array}\right], b\left[\begin{array}{c}{-13} \\ {9}\end{array}\right] \] 我们可以看到这种形式的线性方程有许多优点(比如明显地节省空间)。 1.1 基本符号 我们使用以下符号 \(A \in \mathbb{R}^{m \times n}\)表示 \(A\) 为由实数组成具有\(m\)行和\(n\)列的矩阵。 \(x \in \mathbb{R}^{ n}\)表示具有\(n\)个元素的向量。 通常向量\(x\)将表示列向量: 即具有\(n\)行和\(1\)列的矩阵。 如果我们想要明确地表示行向量: 具有 \(1\) 行和\(n\)列的矩阵 - 我们通常写\(x^T\)(这里\(x^T\)\(x\)的转置)。 \(x_i\)表示向量\(x\)的第\(i\)个元素 \[x\left[\begin{array}{c}{x_{1}} \\ {x_{2}} \\ {\vdots} \\ {x_{n}}\end{array}\right] \] 我们使用符号 \(a_{ij}\)(或\(A_{ij}\),\(A_{i,j}\)等)来表示第 \(i\) 行和第\(j\)列中的 \(A\) 的元素 \[A\left[\begin{array}{cccc}{a_{11}} {a_{12}} {\cdots} {a_{1 n}} \\ {a_{21}} {a_{22}} {\cdots} {a_{2 n}} \\ {\vdots} {\vdots} {\ddots} {\vdots} \\ {a_{m 1}} {a_{m 2}} {\cdots} {a_{m n}}\end{array}\right] \] 我们用\(a^j\)或者\(A_{:,j}\)表示矩阵\(A\)的第\(j\)列 \[A\left[\begin{array}{llll}{ |} { |} {} { |} \\ {a^{1}} {a^{2}} {\cdots} {a^{n}} \\ { |} { |} {} { |}\end{array}\right] \] 我们用\(a^T_i\)或者\(A_{i,:}\)表示矩阵\(A\)的第\(i\)行 \[A\left[\begin{array}{c}{-a_{1}^{T}-} \\ {-a_{2}^{T}-} \\ {\vdots} \\ {-a_{m}^{T}-}\end{array}\right] \] 在许多情况下将矩阵视为列向量或行向量的集合非常重要且方便。 通常在向量而不是标量上操作在数学上(和概念上)更清晰。只要明确定义了符号用于矩阵的列或行的表示方式并没有通用约定。 2.矩阵乘法 两个矩阵相乘其中 \(A \in \mathbb{R}^{m \times n}\) and \(B \in \mathbb{R}^{n \times p}\) 则 \[C AB \in \mathbb{R}^{m \times p} \] 其中 \[C_{i j}\sum_{k1}^{n} A_{i k} B_{k j} \] 请注意为了使矩阵乘积存在\(A\)中的列数必须等于\(B\)中的行数。有很多方法可以查看矩阵乘法我们将从检查一些特殊情况开始。 2.1 向量-向量乘法 给定两个向量\(x, y \in \mathbb{R}^{n}\),\(x^T y\)通常称为向量内积或者点积结果是个实数。 \[x^{T} y \in \mathbb{R}\left[\begin{array}{llll}{x_{1}} {x_{2}} {\cdots} {x_{n}}\end{array}\right]\left[\begin{array}{c}{y_{1}} \\ {y_{2}} \\ {\vdots} \\ {y_{n}}\end{array}\right]\sum_{i1}^{n} x_{i} y_{i} \] 注意\(x^T y y^Tx\) 始终成立。 给定向量 \(x \in \mathbb{R}^{m}\), \(y \in \mathbb{R}^{n}\) (他们的维度是否相同都没关系)\(xy^T \in \mathbb{R}^{m \times n}\)叫做**向量外积 ** , 当 \((xy^T)_{ij} x_iy_j\) 的时候它是一个矩阵。 \[x y^{T} \in \mathbb{R}^{m \times n}\left[\begin{array}{c}{x_{1}} \\ {x_{2}} \\ {\vdots} \\ {x_{m}}\end{array}\right]\left[\begin{array}{llll}{y_{1}} {y_{2}} {\cdots} {y_{n}}\end{array}\right]\left[\begin{array}{cccc}{x_{1} y_{1}} {x_{1} y_{2}} {\cdots} {x_{1} y_{n}} \\ {x_{2} y_{1}} {x_{2} y_{2}} {\cdots} {x_{2} y_{n}} \\ {\vdots} {\vdots} {\ddots} {\vdots} \\ {x_{m} y_{1}} {x_{m} y_{2}} {\cdots} {x_{m} y_{n}}\end{array}\right] \] 举一个外积如何使用的一个例子让\(1\in R^{n}\)表示一个\(n\)维向量其元素都等于1此外考虑矩阵\(A \in R^{m \times n}\)其列全部等于某个向量 \(x \in R^{m}\)。 我们可以使用外积紧凑地表示矩阵 \(A\): \[A\left[\begin{array}{llll}{ |} { |} {} { |} \\ {x} {x} {\cdots} {x} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{cccc}{x_{1}} {x_{1}} {\cdots} {x_{1}} \\ {x_{2}} {x_{2}} {\cdots} {x_{2}} \\ {\vdots} {\vdots} {\ddots} {\vdots} \\ {x_{m}} {x_{m}} {\cdots} {x_{m}}\end{array}\right]\left[\begin{array}{c}{x_{1}} \\ {x_{2}} \\ {\vdots} \\ {x_{m}}\end{array}\right]\left[\begin{array}{lll}{1} {1} {\cdots} {1}\end{array}\right]x \mathbf{1}^{T} \] 2.2 矩阵-向量乘法 给定矩阵 \(A \in \mathbb{R}^{m \times n}\)向量 \(x \in \mathbb{R}^{n}\) , 它们的积是一个向量 \(y Ax \in R^{m}\)。 有几种方法可以查看矩阵向量乘法我们将依次查看它们中的每一种。 如果我们按行写\(A\)那么我们可以表示\(Ax\)为 \[yA x\left[\begin{array}{ccc}{-} {a_{1}^{T}} {-} \\ {-} {a_{2}^{T}} {-} \\ {} {\vdots} {} \\ {-} {a_{m}^{T}} {-}\end{array}\right] x\left[\begin{array}{c}{a_{1}^{T} x} \\ {a_{2}^{T} x} \\ {\vdots} \\ {a_{m}^{T} x}\end{array}\right] \] 换句话说第\(i\)个\(y\)是\(A\)的第\(i\)行和\(x\)的内积即\(y_i y_{i}a_{i}^{T} x\)。 同样的 可以把 \(A\) 写成列的方式则公式如下 \[yA x\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {a^{1}} {a^{2}} {\cdots} {a^{n}} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{c}{x_{1}} \\ {x_{2}} \\ {\vdots} \\ {x_{n}}\end{array}\right]\left[\begin{array}{c}{ } \\ {a^{1}{ } \\ }\end{array}\right] x_{1}\left[\begin{array}{c}{ } \\ {a^{2}{ } \\ }\end{array}\right] x_{2}{\cdots} \left[\begin{array}{c}{ } \\ {a^{n}{ } \\ }\end{array}\right] x_{n} \] 换句话说\(y\)是\(A\)的列的线性组合其中线性组合的系数由\(x\)的元素给出。 到目前为止我们一直在右侧乘以列向量但也可以在左侧乘以行向量。 这是写的\(y^T x^TA\) 表示\(A \in \mathbb{R}^{m \times n}\)\(x \in \mathbb{R}^{m}\)\(y \in \mathbb{R}^{n}\)。 和以前一样我们可以用两种可行的方式表达\(y^T\)这取决于我们是否根据行或列表达\(A\). 第一种情况我们把\(A\)用列表示 \[y^{T}x^{T} Ax^{T}\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {a^{1}} {a^{2}} {\cdots} {a^{n}} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{cccc}{x^{T} a^{1}} {x^{T} a^{2}} {\dots} {x^{T} a^{n}}\end{array}\right] \] 这表明\(y^T\)的第\(i\)个元素等于\(x\)和\(A\)的第\(i\)列的内积。 最后根据行表示\(A\)我们得到了向量-矩阵乘积的最终表示: \[y^Tx^TA \left[\begin{array}{llll}{x_{1}} {x_{2}} {\cdots} {x_{n}}\end{array}\right]\left[\begin{array}{c}{-a_{1}^{T}-} \\ {-a_{2}^{T}-} \\ {\vdots} \\ {-a_{m}^{T}-}\end{array}\right] x_{1}\left[-a_{1}^{T}-\right]x_{2}\left[-a_{2}^{T}-\right]\ldotsx_{n}\left[-a_{n}^{T}-\right] \] 所以我们看到\(y^T\)是\(A\)的行的线性组合其中线性组合的系数由\(x\)的元素给出。 2.3 矩阵-矩阵乘法 有了这些知识我们现在可以看看四种不同的(形式不同但结果是相同的)矩阵-矩阵乘法也就是本节开头所定义的\(CAB\)的乘法。 首先我们可以将矩阵 - 矩阵乘法视为一组向量-向量乘积。 从定义中可以得出最明显的观点是$C \(的\)( ij )\(元素等于\)A\(的第\)i\(行和\)B\(的的\)j$列的内积。如下面的公式所示 \[CA B\left[\begin{array}{cc}{-} {a_{1}^{T}} {-} \\ {-} {a_{2}^{T}} {-} \\ {} {\vdots} \\ {-} {a_{m}^{T}} {-} \end{array}\right]\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {b_{1}} {b_{2}} {\cdots} {b_{p}} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{cccc}{a_{1}^{T} b_{1}} {a_{1}^{T} b_{2}} {\cdots} {a_{1}^{T} b_{p}} \\ {a_{2}^{T} b_{1}} {a_{2}^{T} b_{2}} {\cdots} {a_{2}^{T} b_{p}} \\ {\vdots} {\vdots} {\ddots} {\vdots} \\ {a_{m}^{T} b_{1}} {a_{m}^{T} b_{2}} {\cdots} {a_{m}^{T} b_{p}}\end{array}\right] \] 这里的$ A \in \mathbb{R}^{m\times n}$ \(B \in \mathbb{R}^{n \times p}\) \(a_i \in \mathbb{R}^n\) \(b^j \in \mathbb{R}^{n \times p}\) 这里的$ A \in \mathbb{R}^ {m \times n}$ $B \in \mathbb{R}^ {n \times p} $ $a_i \in \mathbb{R} ^ n \(\) b ^ j \in \mathbb{R} ^ {n \times p} \(所以它们可以计算内积。 我们用通常用行表示\) A \(而用列表示\)B\(。 或者我们可以用列表示\) A\(用行表示\)B \(这时\)AB$是求外积的和。公式如下 \[CA B\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {a_{1}} {a_{2}} {\cdots} {a_{n}} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{c}{-} {b_{1}^{T}}{-} \\ {-} {b_{2}^{T}}{-} \\ {\vdots} \\{-} {b_{n}^{T}}{-}\end{array}\right]\sum_{i1}^{n} a_{i} b_{i}^{T} \] 换句话说\(AB\)等于所有的\(A\)的第\(i\)列和\(B\)第\(i\)行的外积的和。因此在这种情况下 $a_i \in \mathbb{R}^ m \(和\)b_i \in \mathbb{R}^p\( 外积\)aib_iT\(的维度是\)m×p\(与\)C$的维度一致。 其次我们还可以将矩阵 - 矩阵乘法视为一组矩阵向量积。如果我们把\(B\)用列表示我们可以将\(C\)的列视为\(A\)和\(B\)的列的矩阵向量积。公式如下 \[CA BA\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {b_{1}} {b_{2}} {\cdots} {b_{p}} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {A b_{1}} {A b_{2}} {\cdots} {A b_{p}} \\ { |} { |} {} { |}\end{array}\right] \] 这里\(C\)的第\(i\)列由矩阵向量乘积给出右边的向量为\(c_i Ab_i\)。 这些矩阵向量乘积可以使用前一小节中给出的两个观点来解释。 最后我们有类似的观点我们用行表示\(A\)\(C\)的行作为\(A\)和\(C\)行之间的矩阵向量积。公式如下 \[CA B\left[\begin{array}{ccc}{-} {a_{1}^{T}} {-} \\ {-} {a_{2}^{T}} {-} \\ {} {\vdots} {} \\ {-} {a_{m}^{T}} {-}\end{array}\right] B\left[\begin{array}{c} {-} {a_{1}^{T} B} {-}\\ {-} {a_{2}^{T} B} {-} \\ {\vdots} \\ {-} {a_{m}^{T} B} {-}\end{array}\right] \] 这里第\(i\)行的\(C\)由左边的向量的矩阵向量乘积给出\(c_i^T a_i^T B\) 将矩阵乘法剖析到如此大的程度似乎有点过分特别是当所有这些观点都紧跟在我们在本节开头给出的初始定义(在一行数学中)之后。 这些不同方法的直接优势在于它们允许您在向量的级别/单位而不是标量上进行操作。 为了完全理解线性代数而不会迷失在复杂的索引操作中关键是要用尽可能多的概念进行操作。 实际上所有的线性代数都处理某种矩阵乘法花一些时间对这里提出的观点进行直观的理解是非常必要的。 除此之外了解一些更高级别的矩阵乘法的基本属性是很有必要的 矩阵乘法结合律: \((AB)C A(BC)\) 矩阵乘法分配律: \(A(B C) AB AC\) 矩阵乘法通常不是可交换的; 也就是说通常\(AB \ne BA\)。 (例如假设$ A \in \mathbb{R}^ {m \times n}$ $B \in \mathbb{R}^ {n \times p} \(如果\)m\(和\)q\(不相等矩阵乘积\)BA$甚至不存在) 如果您不熟悉这些属性请花点时间自己验证它们。 例如为了检查矩阵乘法的相关性假设\(A \in \mathbb{R}^ {m \times n}\) $B \in \mathbb{R}^ {n \times p} \(\)C \in \mathbb{R}^ {p \times q}\(。 注意\)AB \in \mathbb{R}^ {m \times p}\(所以\)(AB)C \in \mathbb{R}^ {m \times q}\(。 类似地\)BC \in \mathbb{R}^ {n \times q}\(所以\)A(BC) \in \mathbb{R}^ {m \times q}\(。 因此所得矩阵的维度一致。 为了表明矩阵乘法是相关的足以检查\)(AB)C \(的第\)(i,j)\(个元素是否等于\)A(BC)\(的第\)(i,j)$个元素。 我们可以使用矩阵乘法的定义直接验证这一点 \[\begin{aligned}((A B) C)_{i j} \sum_{k1}^{p}(A B)_{i k} C_{k j}\sum_{k1}^{p}\left(\sum_{l1}^{n} A_{i l} B_{l k}\right) C_{k j} \\ \sum_{k1}^{p}\left(\sum_{l1}^{n} A_{i l} B_{l k} C_{k j}\right)\sum_{l1}^{n}\left(\sum_{k1}^{p} A_{i l} B_{l k} C_{k j}\right) \\ \sum_{l1}^{n} A_{i l}\left(\sum_{k1}^{p} B_{l k} C_{k j}\right)\sum_{l1}^{n} A_{i l}(B C)_{l j}(A(B C))_{i j} \end{aligned} \] 3 运算和属性 在本节中我们介绍矩阵和向量的几种运算和属性。 希望能够为您复习大量此类内容这些笔记可以作为这些主题的参考。 3.1 单位矩阵和对角矩阵 单位矩阵,$I \in \mathbb{R}^{n \times n} $它是一个方阵对角线的元素是1其余元素都是0 \[I_{i j}\left\{\begin{array}{ll}{1} {ij} \\ {0} {i \neq j}\end{array}\right. \] 对于所有\(A \in \mathbb{R}^ {m \times n}\)有 \[AI A IA \] 注意在某种意义上单位矩阵的表示法是不明确的因为它没有指定\(I\)的维数。通常\(I\)的维数是从上下文推断出来的以便使矩阵乘法成为可能。 例如在上面的等式中\(AI A\)中的I是\(n\times n\)矩阵而\(A IA\)中的\(I\)是\(m\times m\)矩阵。 对角矩阵是一种这样的矩阵对角线之外的元素全为0。对角阵通常表示为\(D diag(d_1, d_2, . . . , d_n)\)其中 \[D_{i j}\left\{\begin{array}{ll}{d_{i}} {ij} \\ {0} {i \neq j}\end{array}\right. \] 很明显单位矩阵$ I diag(1, 1, . . . , 1)$。 3.2 转置 矩阵的转置是指翻转矩阵的行和列。 给定一个矩阵 \(A \in \mathbb{R}^ {m \times n}\), 它的转置为\(n \times m\)的矩阵\(A^T \in \mathbb{R}^ {n \times m}\) 其中的元素为 \[(A^T)_{ij} A_{ji} \] 事实上我们在描述行向量时已经使用了转置因为列向量的转置自然是行向量。 转置的以下属性很容易验证 \((A^T )^T A\)$ (AB)^T B^T A^T$\((A B)^T A^T B^T\) 3.3 对称矩阵 如果\(A A^T\)则矩阵\(A \in \mathbb{R}^ {n \times n}\)是对称矩阵。 如果$ A - A^T\(它是反对称的。 很容易证明对于任何矩阵\)A \in \mathbb{R}^ {n \times n}\(矩阵\)A A^ T\(是对称的矩阵\)A -A^T\(是反对称的。 由此得出任何方矩阵\)A \in \mathbb{R}^ {n \times n}$可以表示为对称矩阵和反对称矩阵的和所以 \[A\frac{1}{2}(AA^T)\frac{1}{2}(A-A^T) \] 上面公式的右边的第一个矩阵是对称矩阵而第二个矩阵是反对称矩阵。 事实证明对称矩阵在实践中用到很多它们有很多很好的属性我们很快就会看到它们。 通常将大小为\(n\)的所有对称矩阵的集合表示为\(\mathbb{S}^n\)因此\(A \in \mathbb{S}^n\)意味着\(A\)是对称的\(n\times n\)矩阵; 3.4 矩阵的迹 方矩阵\(A \in \mathbb{R}^ {n \times n}\)的迹表示为\(\operatorname{tr} (A)\)(或者只是\(\operatorname{tr} A\)如果括号显然是隐含的)是矩阵中对角元素的总和 \[\operatorname{tr} A\sum_{i1}^{n} A_{i i} \] 如CS229讲义中所述迹具有以下属性(如下所示) 对于矩阵\(A \in \mathbb{R}^ {n \times n}\)则\(\operatorname{tr}A \operatorname{tr}A^T\) 对于矩阵\(A,B \in \mathbb{R}^ {n \times n}\)则\(\operatorname{tr}(A B) \operatorname{tr}A \operatorname{tr}B\) 对于矩阵\(A \in \mathbb{R}^ {n \times n}\)$ t \in \mathbb{R}\(则\)\operatorname{tr}(tA) t\operatorname{tr}A$. 对于矩阵 \(A\), \(B\)\(AB\) 为方阵, 则\(\operatorname{tr}AB \operatorname{tr}BA\) 对于矩阵 \(A\), \(B\), \(C\), \(ABC\)为方阵, 则\(\operatorname{tr}ABC \operatorname{tr}BCA\operatorname{tr}CAB\), 同理更多矩阵的积也是有这个性质。 作为如何证明这些属性的示例我们将考虑上面给出的第四个属性。 假设\(A \in \mathbb{R}^ {m \times n}\)和\(B \in \mathbb{R}^ {n \times m}\)(因此\(AB \in \mathbb{R}^ {m \times m}\)是方阵)。 观察到\(BA \in \mathbb{R}^ {n \times n}\)也是一个方阵因此对它们进行迹的运算是有意义的。 要证明\(\operatorname{tr}AB \operatorname{tr}BA\)请注意 \[\begin{aligned} \operatorname{tr} A B \sum_{i1}^{m}(A B)_{i i}\sum_{i1}^{m}\left(\sum_{j1}^{n} A_{i j} B_{j i}\right) \\ \sum_{i1}^{m} \sum_{j1}^{n} A_{i j} B_{j i}\sum_{j1}^{n} \sum_{i1}^{m} B_{j i} A_{i j} \\ \sum_{j1}^{n}\left(\sum_{i1}^{m} B_{j i} A_{i j}\right)\sum_{j1}^{n}(B A)_{j j}\operatorname{tr} B A \end{aligned} \] 这里第一个和最后两个等式使用迹运算符和矩阵乘法的定义重点在第四个等式使用标量乘法的可交换性来反转每个乘积中的项的顺序以及标量加法的可交换性和相关性以便重新排列求和的顺序。 3.5 范数 向量的范数\(\|x\|\)是非正式度量的向量的“长度” 。 例如我们有常用的欧几里德或\(\ell_{2}\)范数 \[\|x\|_{2}\sqrt{\sum_{i1}^{n} x_{i}^{2}} \] 注意\(\|x\|_{2}^{2}x^{T} x\) 更正式地范数是满足4个属性的函数(\(f : \mathbb{R}^{n} \rightarrow \mathbb{R}\)) 对于所有的 \(x \in \mathbb{R}^ {n}\), $f(x) \geq 0 $(非负).当且仅当\(x 0\) 时\(f(x) 0\) (明确性).对于所有\(x \in \mathbb{R}^ {n}\),\(t\in \mathbb{R}\)则 \(f(tx) \left| t \right|f(x)\) (正齐次性).对于所有 \(x,y \in \mathbb{R}^ {n}\), \(f(x y) \leq f(x) f(y)\) (三角不等式) 其他范数的例子是\(\ell_1\)范数: \[\|x\|_{1}\sum_{i1}^{n}\left|x_{i}\right| \] 和\(\ell_{\infty }\)范数 \[\|x\|_{\infty}\max _{i}\left|x_{i}\right| \] 事实上到目前为止所提出的所有三个范数都是\(\ell_p\)范数族的例子它们由实数\(p \geq 1\)参数化并定义为 \[\|x\|_{p}\left(\sum_{i1}^{n}\left|x_{i}\right|^{p}\right)^{1 / p} \] 也可以为矩阵定义范数例如Frobenius范数: \[\|A\|_{F}\sqrt{\sum_{i1}^{m} \sum_{j1}^{n} A_{i j}^{2}}\sqrt{\operatorname{tr}\left(A^{T} A\right)} \] 许多其他更多的范数但它们超出了这个复习材料的范围。 3.6 线性相关性和秩 一组向量\({x_1,x_2, \cdots x_n} \in \mathbb{R}\) 如果没有向量可以表示为其余向量的线性组合则称称该向量是线性无相关的。 相反如果属于该组的一个向量可以表示为其余向量的线性组合则称该向量是线性相关的。 也就是说如果 \[x_{n}\sum_{i1}^{n-1} \alpha_{i} x_{i} \] 对于某些标量值\(\alpha_1,\cdots \alpha_n-1 \in \mathbb{R}\)要么向量\(x_1,x_2, \cdots x_n\)是线性相关的; 否则向量是线性无关的。 例如向量 \[x_{1}\left[\begin{array}{l}{1} \\ {2} \\ {3}\end{array}\right] \quad x_{2}\left[\begin{array}{c}{4} \\ {1} \\ {5}\end{array}\right] \quad x_{3}\left[\begin{array}{c}{2} \\ {-3} \\ {-1}\end{array}\right] \] 是线性相关的因为\(x_3-2x_1x_2\)。 矩阵\(A \in \mathbb{R}^{m \times n}\)的列秩是构成线性无关集合的\(A\)的最大列子集的大小。 由于术语的多样性这通常简称为\(A\)的线性无关列的数量。同样行秩是构成线性无关集合的\(A\)的最大行数。 对于任何矩阵\(A \in \mathbb{R}^{m \times n}\)事实证明\(A\)的列秩等于\(A\)的行秩(尽管我们不会证明这一点)因此两个量统称为\(A\)的秩用 \(\text{rank}(A)\)表示。 以下是秩的一些基本属性 对于 \(A \in \mathbb{R}^{m \times n}\)\(\text{rank}(A) \leq min(m, n)\)如果$ \text(A) \text{min} (m, n)$则 \(A\) 被称作满秩。对于 \(A \in \mathbb{R}^{m \times n}\) \(\text{rank}(A) \text{rank}(A^T)\)对于 \(A \in \mathbb{R}^{m \times n}\),\(B \in \mathbb{R}^{n \times p}\) ,\(\text{rank}(AB) \leq \text{min} ( \text{rank}(A), \text{rank}(B))\)对于 \(A,B \in \mathbb{R}^{m \times n}\)\(\text{rank}(A B) \leq \text{rank}(A) \text{rank}(B)\) 3.7 方阵的逆 方阵\(A \in \mathbb{R}^{n \times n}\)的倒数表示为\(A^{-1}\)并且是这样的独特矩阵: \[A^{-1}AIAA^{-1} \] 请注意并非所有矩阵都具有逆。 例如非方形矩阵根据定义没有逆。 然而对于一些方形矩阵\(A\)可能仍然存在\(A^{-1}\)可能不存在的情况。 特别是如果\(A^{-1}\)存在我们说\(A\)是可逆的或非奇异的否则就是不可逆或奇异的。 为了使方阵A具有逆\(A^{-1}\)则\(A\)必须是满秩。 我们很快就会发现除了满秩之外还有许多其它的充分必要条件。 以下是逆的属性; 假设\(A,B \in \mathbb{R}^{n \times n}\)而且是非奇异的 \((A^{-1})^{-1} A\)\((AB)^{-1} B^{-1}A^{-1}\)$(A{-1}) (A{T}) \(因此该矩阵通常表示为\)A^{-T}\(。 作为如何使用逆的示例考虑线性方程组\)Ax b\(其中\)A \in \mathbb{R}^{n \times n}\(\)x,b\in \mathbb{R}\( 如果\)A\(是非奇异的(即可逆的)那么\)x A^{-1}b\(。 (如果\)A \in \mathbb{R}^{m \times n}$不是方阵这公式还有用吗) 3.8 正交阵 如果 \(x^Ty0\)则两个向量\(x,y\in \mathbb{R}^{n}\) 是正交的。如果\(\|x\|_21\)则向量\(x\in \mathbb{R}^{n}\) 被归一化。如果一个方阵\(U\in \mathbb{R}^{n \times n}\)的所有列彼此正交并被归一化(这些列然后被称为正交)则方阵\(U\)是正交阵(注意在讨论向量时的意义不一样)。 它可以从正交性和正态性的定义中得出: \[U^ TU I U U^T \] 换句话说正交矩阵的逆是其转置。 注意如果\(U\)不是方阵 :即\(U\in \mathbb{R}^{m \times n}\)\(n m\) 但其列仍然是正交的则\(U^TU I\)但是\(UU^T \neq I\)。我们通常只使用术语正交来描述先前的情况 其中\(U\)是方阵。 正交矩阵的另一个好的特性是在具有正交矩阵的向量上操作不会改变其欧几里德范数即: \[\|U x\|_{2}\|x\|_{2} \] 对于任何 \(x\in \mathbb{R}\) , \(U\in \mathbb{R}^{n}\)是正交的。 3.9 矩阵的值域和零空间 一组向量\(\{x_{1}, \ldots x_{n}\}\)是可以表示为\(\{x_{1}, \ldots x_{n}\}\)的线性组合的所有向量的集合。 即 \[\operatorname{span}\left(\left\{x_{1}, \ldots x_{n}\right\}\right)\left\{v : v\sum_{i1}^{n} \alpha_{i} x_{i}, \quad \alpha_{i} \in \mathbb{R}\right\} \] 可以证明如果\(\{x_{1}, \ldots x_{n}\}\)是一组\(n\)个线性无关的向量其中每个\(x_i \in \mathbb{R}^{n}\)则\(\text{span}(\{x_{1}, \ldots x_{n}\})\mathbb{R}^{n}\)。 换句话说任何向量\(v\in \mathbb{R}^{n}\)都可以写成\(x_1\)到\(x_n\)的线性组合。 向量\(y\in \mathbb{R}^{m}\)投影到\(\{x_{1}, \ldots x_{n}\}\)(这里我们假设\(x_i \in \mathbb{R}^{m}\))得到向量\(v \in \operatorname{span}(\{x_{1}, \ldots, x_{n}\})\)由欧几里德范数\(\|v - y\|_2\)可以得知这样\(v\)尽可能接近\(y\)。 我们将投影表示为\(\operatorname{Proj}\left(y ;\left\{x_{1}, \ldots x_{n}\right\}\right)\)并且可以将其正式定义为: \[\operatorname{Proj}\left(y ;\left\{x_{1}, \ldots x_{n}\right\}\right)\operatorname{argmin}_{v \in \operatorname{span}\left(\left\{x_{1}, \ldots, x_{n}\right\}\right)}\|y-v\|_{2} \] 矩阵\(A\in \mathbb{R}^{m \times n}\)的值域(有时也称为列空间)表示为\(\mathcal{R}(A)\)是\(A\)列的跨度。换句话说 \[\mathcal{R}(A)\left\{v \in \mathbb{R}^{m} : vA x, x \in \mathbb{R}^{n}\right\} \] 做一些技术性的假设(即\(A\)是满秩且\(n m\))向量\(y \in \mathbb{R}^{m}\)到\(A\)的范围的投影由下式给出: \[\operatorname{Proj}(y ; A)\operatorname{argmin}_{v \in \mathcal{R}(A)}\|v-y\|_{2}A\left(A^{T} A\right)^{-1} A^{T} y \] 这个最后的方程应该看起来非常熟悉因为它几乎与我们在课程中(我们将很快再次得出)得到的公式用于参数的最小二乘估计一样。 看一下投影的定义显而易见这实际上是我们在最小二乘问题中最小化的目标(除了范数的平方这里有点不一样这不会影响找到最优解)所以这些问题自然是非常相关的。 当\(A\)只包含一列时\(a \in \mathbb{R}^{m}\)这给出了向量投影到一条线上的特殊情况 \[\operatorname{Proj}(y ; a)\frac{a a^{T}}{a^{T} a} y \] 一个矩阵\(A\in \mathbb{R}^{m \times n}\)的零空间 \(\mathcal{N}(A)\) 是所有乘以\(A\)时等于0向量的集合即 \[\mathcal{N}(A)\left\{x \in \mathbb{R}^{n} : A x0\right\} \] 注意\(\mathcal{R}(A)\)中的向量的大小为\(m\)而 \(\mathcal{N}(A)\) 中的向量的大小为\(n\)因此\(\mathcal{R}(A^T)\)和 \(\mathcal{N}(A)\) 中的向量的大小均为\(\mathbb{R}^{n}\)。 事实上还有很多例子。 证明 \[\left\{w : wuv, u \in \mathcal{R}\left(A^{T}\right), v \in \mathcal{N}(A)\right\}\mathbb{R}^{n} \text { and } \mathcal{R}\left(A^{T}\right) \cap \mathcal{N}(A)\{\mathbf{0}\} \] 换句话说\(\mathcal{R}(A^T)\)和 \(\mathcal{N}(A)\) 是不相交的子集它们一起跨越\(\mathbb{R}^{n}\)的整个空间。 这种类型的集合称为正交补我们用\(\mathcal{R}(A^T) \mathcal{N}(A)^{\perp}\)表示。 3.10 行列式 一个方阵\(A \in \mathbb{R}^{n \times n}\)的行列式是函数\(\text {det}\)$\mathbb{R}^{n \times n} \rightarrow \mathbb{R}^{n} \(并且表示为\)\left| A \right|\(。 或者\)\text{det} A\((有点像迹运算符我们通常省略括号)。 从代数的角度来说我们可以写出一个关于\)A$行列式的显式公式。 因此我们首先提供行列式的几何解释然后探讨它的一些特定的代数性质。 给定一个矩阵 \[\left[\begin{array}{cccc}{-} {a_{1}^{T}} {-} \\ {-} {a_{2}^{T}} {-} \\ {} {\vdots} {} \\ {-} {a_{n}^{T}} {-}\end{array}\right] \] 考虑通过采用\(A\)行向量\(a_{1}, \ldots a_{n}\in \mathbb{R}^{n}\)的所有可能线性组合形成的点\(S \subset \mathbb{R}^{n}\)的集合其中线性组合的系数都在0和1之间; 也就是说集合\(S\)是\(\text{span}(\{a_{1}, \ldots a_{n}\})\)受到系数\(a_{1}, \ldots a_{n}\)的限制的线性组合\(\alpha_1, \cdots ,\alpha_n\)满足\(0 \leq \alpha_{i} \leq 1, i1, \ldots, n\)。从形式上看 \[S\left\{v \in \mathbb{R}^{n} : v\sum_{i1}^{n} \alpha_{i} a_{i} \text { where } 0 \leq \alpha_{i} \leq 1, i1, \ldots, n\right\} \] 事实证明\(A\)的行列式的绝对值是对集合\(S\)的“体积”的度量。 比方说一个\(2 \times2\)的矩阵(4) \[A\left[\begin{array}{ll}{1} {3} \\ {3} {2}\end{array}\right] \] 它的矩阵的行是 \[a_{1}\left[\begin{array}{l}{1} \\ {3}\end{array}\right] \quad a_{2}\left[\begin{array}{l}{3} \\ {2}\end{array}\right] \] 对应于这些行对应的集合\(S\)如图1所示。对于二维矩阵\(S\)通常具有平行四边形的形状。 在我们的例子中行列式的值是\(\left| A \right| -7\)(可以使用本节后面显示的公式计算)因此平行四边形的面积为7。(请自己验证) 在三维中集合\(S\)对应于一个称为平行六面体的对象(一个有倾斜边的三维框这样每个面都有一个平行四边形)。行定义\(S\)的\(3×3\)矩阵S的行列式的绝对值给出了平行六面体的三维体积。在更高的维度中集合\(S\)是一个称为\(n\)维平行切的对象。 图1(4)中给出的\(2×2\)矩阵\(A\)的行列式的图示。 这里\(a_1\)和\(a_2\)是对应于\(A\)行的向量并且集合\(S\)对应于阴影区域(即平行四边形)。 这个行列式的绝对值\(\left| \text{det} A \right| 7\)即平行四边形的面积。 在代数上行列式满足以下三个属性(所有其他属性都遵循这些属性包括通用公式) 恒等式的行列式为1, \(\left| I \right| 1\)(几何上单位超立方体的体积为1)。 给定一个矩阵 \(A \in \mathbb{R}^{n \times n}\), 如果我们将\(A\)中的一行乘上一个标量\(t \in \mathbb{R}\)那么新矩阵的行列式是\(t\left| A \right|\) \[\left|\left[\begin{array}{ccc}{-} {t a_{1}^{T}} {-} \\ {-} {a_{2}^{T}} {-} \\ {} {\vdots} {} \\ {} {a_{m}^{T}} {-}\end{array}\right]\right|t|A| \] 几何上将集合\(S\)的一个边乘以系数\(t\)体积也会增加一个系数\(t\)。 如果我们交换任意两行在\(a_i^T\)和\(a_j^T\)那么新矩阵的行列式是\(-\left| A \right|\)例如 \[\left|\left[\begin{array}{ccc}{-} {a_{2}^{T}} {-} \\ {-} {a_{1}^{T}} {-} \\ {} {\vdots} {} \\ {-} {a_{m}^{T}} {-}\end{array}\right]\right|-|A| \] 你一定很奇怪满足上述三个属性的函数的存在并不多。事实上这样的函数确实存在而且是唯一的(我们在这里不再证明了)。 从上述三个属性中得出的几个属性包括 对于 \(A \in \mathbb{R}^{n \times n}\), \(\left| A \right| \left| A^T \right|\)对于 \(A,B \in \mathbb{R}^{n \times n}\), \(\left| AB \right| \left| A \right|\left| B \right|\)对于 \(A \in \mathbb{R}^{n \times n}\), 有且只有当\(A\)是奇异的(比如不可逆) 则\(\left| A \right| 0\)对于 \(A \in \mathbb{R}^{n \times n}\) 同时\(A\)为非奇异的则\(\left| A ^{−1}\right| 1/\left| A \right|\) 在给出行列式的一般定义之前我们定义对于\(A \in \mathbb{R}^{n \times n}\)\(A_{\backslash i, \backslash j}\in \mathbb{R}^{(n-1) \times (n-1)}\)是由于删除第\(i\)行和第\(j\)列而产生的矩阵。 行列式的一般(递归)公式是 \[\begin{aligned}|A| \sum_{i1}^{n}(-1)^{ij} a_{i j}\left|A_{\backslash i, \backslash j}\right| \quad(\text { for any } j \in 1, \ldots, n) \\ \sum_{j1}^{n}(-1)^{ij} a_{i j}\left|A_{\backslash i, \backslash j}\right| \quad(\text { for any } i \in 1, \ldots, n) \end{aligned} \] 对于 \(A \in \mathbb{R}^{1 \times 1}\)初始情况为\(\left| A \right| a_{11}\)。如果我们把这个公式完全展开为 \(A \in \mathbb{R}^{n \times n}\)就等于\(n!\)(\(n\)阶乘)不同的项。因此对于大于\(3×3\)的矩阵我们几乎没有明确地写出完整的行列式方程。然而\(3×3\)大小的矩阵的行列式方程是相当常见的建议好好地了解它们 \[\left|\left[a_{11}\right]\right|a_{11} \] \[\left|\left[\begin{array}{ll}{a_{11}} {a_{12}} \\ {a_{21}} {a_{22}}\end{array}\right]\right|a_{11} a_{22}-a_{12} a_{21} \] \[\left|\left[\begin{array}{l}{a_{11}} {a_{12}} {a_{13}} \\ {a_{21}} {a_{22}} {a_{23}} \\ {a_{31}} {a_{32}} {a_{33}}\end{array}\right]\right|\quad \begin{array}{c}{a_{11} a_{22} a_{33}a_{12} a_{23} a_{31}a_{13} a_{21} a_{32}} \\\quad \quad {-a_{11} a_{23} a_{32}-a_{12} a_{21} a_{33}-a_{13} a_{22} a_{31}} \\ {}\end{array} \] 矩阵\(A \in \mathbb{R}^{n \times n}\)的经典伴随矩阵(通常称为伴随矩阵)表示为\(\operatorname{adj}(A)\)并定义为 \[\operatorname{adj}(A) \in \mathbb{R}^{n \times n}, \quad(\operatorname{adj}(A))_{i j}(-1)^{ij}\left|A_{\backslash j, \backslash i}\right| \] (注意索引\(A_{\backslash j, \backslash i}\)中的变化)。可以看出对于任何非奇异\(A \in \mathbb{R}^{n \times n}\) \[A^{-1}\frac{1}{|A|} \operatorname{adj}(A) \] 虽然这是一个很好的“显式”的逆矩阵公式但我们应该注意从数字上讲有很多更有效的方法来计算逆矩阵。 3.11 二次型和半正定矩阵 给定方矩阵\(A \in \mathbb{R}^{n \times n}\)和向量\(x \in \mathbb{R}^{n}\)标量值\(x^T Ax\)被称为二次型。 写得清楚些我们可以看到 \[x^{T} A x\sum_{i1}^{n} x_{i}(A x)_{i}\sum_{i1}^{n} x_{i}\left(\sum_{j1}^{n} A_{i j} x_{j}\right)\sum_{i1}^{n} \sum_{j1}^{n} A_{i j} x_{i} x_{j} \] 注意 \[x^{T} A x\left(x^{T} A x\right)^{T}x^{T} A^{T} xx^{T}\left(\frac{1}{2} A\frac{1}{2} A^{T}\right) x \] 第一个等号的是因为是标量的转置与自身相等而第二个等号是因为是我们平均两个本身相等的量。 由此我们可以得出结论只有\(A\)的对称部分有助于形成二次型。 出于这个原因我们经常隐含地假设以二次型出现的矩阵是对称阵。 我们给出以下定义 对于所有非零向量\(x \in \mathbb{R}^n\)\(x^TAx0\)对称阵\(A \in \mathbb{S}^n\)为正定(positive definite,PD)。这通常表示为\(A\succ0\)(或\(A0\))并且通常将所有正定矩阵的集合表示为\(\mathbb{S}_{}^n\)。 对于所有向量\(x^TAx\geq 0\)对称矩阵\(A \in \mathbb{S}^n\)是半正定(positive semidefinite ,PSD)。 这写为(或\(A \succeq 0\)仅\(A≥0\))并且所有半正定矩阵的集合通常表示为\(\mathbb{S}_^n\)。 同样对称矩阵\(A \in \mathbb{S}^n\)是负定(negative definite,ND)如果对于所有非零\(x \in \mathbb{R}^n\)则\(x^TAx 0\)表示为\(A\prec0\)(或\(A 0\))。 类似地对称矩阵\(A \in \mathbb{S}^n\)是半负定(negative semidefinite,NSD)如果对于所有\(x \in \mathbb{R}^n\)则\(x^TAx \leq 0\)表示为\(A\preceq 0\)(或\(A≤0\))。 最后对称矩阵\(A \in \mathbb{S}^n\)是不定的如果它既不是正半定也不是负半定即如果存在\(x_1,x_2 \in \mathbb{R}^n\)那么\(x_1^TAx_10\)且\(x_2^TAx_20\)。 很明显如果\(A\)是正定的那么\(−A\)是负定的反之亦然。同样如果\(A\)是半正定的那么\(−A\)是是半负定的反之亦然。如果果\(A\)是不定的那么\(−A\)是也是不定的。 正定矩阵和负定矩阵的一个重要性质是它们总是满秩因此是可逆的。为了了解这是为什么假设某个矩阵\(A \in \mathbb{S}^n\)不是满秩。然后假设\(A\)的第\(j\)列可以表示为其他\(n-1\)列的线性组合 \[a_{j}\sum_{i \neq j} x_{i} a_{i} \] 对于某些\(x_1,\cdots x_{j-1},x_{j 1} ,\cdots ,x_n\in \mathbb{R}\)。设\(x_j -1\)则 \[Ax\sum_{i \neq j} x_{i} a_{i}0 \] 但这意味着对于某些非零向量\(x\)\(x^T Ax 0\)因此\(A\)必须既不是正定也不是负定。如果\(A\)是正定或负定则必须是满秩。 最后有一种类型的正定矩阵经常出现因此值得特别提及。 给定矩阵\(A \in \mathbb{R}^{m \times n}\)(不一定是对称或偶数平方)矩阵\(G A^T A\)(有时称为Gram矩阵)总是半正定的。 此外如果\(m\geq n\)(同时为了方便起见我们假设\(A\)是满秩)则\(G A^T A\)是正定的。 3.12 特征值和特征向量 给定一个方阵\(A \in\mathbb{R}^{n\times n}\)我们认为在以下条件下\(\lambda \in\mathbb{C}\)是\(A\)的特征值\(x\in\mathbb{C}^n\)是相应的特征向量 \[Ax\lambda x,x \ne 0 \] 直观地说这个定义意味着将\(A\)乘以向量\(x\)会得到一个新的向量该向量指向与\(x\)相同的方向但按系数\(\lambda\)缩放。值得注意的是对于任何特征向量\(x\in\mathbb{C}^n\)和标量\(t\in\mathbb{C}\)\(A(cx)cAxc\lambda x\lambda(cx)\)\(cx\)也是一个特征向量。因此当我们讨论与\(\lambda\)相关的特征向量时我们通常假设特征向量被标准化为长度为1(这仍然会造成一些歧义因为\(x\)和\(−x\)都是特征向量但我们必须接受这一点)。 我们可以重写上面的等式来说明\((\lambda,x)\)是\(A\)的特征值和特征向量的组合 \[(\lambda I-A)x0,x \ne 0 \] 但是\((\lambda I-A)x0\)只有当\((\lambda I-A)\)有一个非空零空间时同时\((\lambda I-A)\)是奇异的\(x\)才具有非零解即 \[|(\lambda I-A)|0 \] 现在我们可以使用行列式的先前定义将表达式\(|(\lambda I-A)|\)扩展为\(\lambda\)中的(非常大的)多项式其中\(\lambda\)的度为\(n\)。它通常被称为矩阵\(A\)的特征多项式。 然后我们找到这个特征多项式的\(n\)(可能是复数)根并用\(\lambda_1,\cdots,\lambda_n\)表示。这些都是矩阵\(A\)的特征值但我们注意到它们可能不明显。为了找到特征值\(\lambda_i\)对应的特征向量我们只需解线性方程\((\lambda I-A)x0\)因为\((\lambda I-A)\)是奇异的所以保证有一个非零解(但也可能有多个或无穷多个解)。 应该注意的是这不是实际用于数值计算特征值和特征向量的方法(记住行列式的完全展开式有\(n!\)项)这是一个数学上的争议。 以下是特征值和特征向量的属性(所有假设在\(A \in\mathbb{R}^{n\times n}\)具有特征值\(\lambda_1,\cdots,\lambda_n\)的前提下) \(A\)的迹等于其特征值之和 \[\operatorname{tr} A\sum_{i1}^{n} \lambda_{i} \] \(A\)的行列式等于其特征值的乘积 \[|A|\prod_{i1}^{n} \lambda_{i} \] \(A\)的秩等于\(A\)的非零特征值的个数 假设\(A\)非奇异其特征值为\(\lambda\)和特征向量为\(x\)。那么\(1/\lambda\)是具有相关特征向量\(x\)的\(A^{-1}\)的特征值即\(A^{-1}x(1/\lambda)x\)。(要证明这一点取特征向量方程\(Ax\lambda x\)两边都左乘\(A^{-1}\)) 对角阵的特征值\(ddiag(d_1\cdots,d_n)\)实际上就是对角元素\(d_1\cdots,d_n\) 3.13 对称矩阵的特征值和特征向量 通常情况下一般的方阵的特征值和特征向量的结构可以很细微地表示出来。 值得庆幸的是在机器学习的大多数场景下处理对称实矩阵就足够了其处理的对称实矩阵的特征值和特征向量具有显着的特性。 在本节中我们假设\(A\)是实对称矩阵, 具有以下属性 \(A\)的所有特征值都是实数。 我们用用\(\lambda_1,\cdots,\lambda_n\)表示。 存在一组特征向量\(u_1\cdots u_n\)对于所有\(i\)\(u_i\)是具有特征值\(\lambda_{i}\)和\(b\)的特征向量。\(u_1\cdots u_n\)是单位向量并且彼此正交。 设\(U\)是包含\(u_i\)作为列的正交矩阵 \[U\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {u_{1}} {u_{2}} {\cdots} {u_{n}} \\ { |} { |} {} { |}\end{array}\right] \] 设\(\Lambda diag(\lambda_1,\cdots,\lambda_n)\)是包含\(\lambda_1,\cdots,\lambda_n\)作为对角线上的元素的对角矩阵。 使用2.3节的方程(2)中的矩阵 - 矩阵向量乘法的方法我们可以验证 \[A U\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {A u_{1}} {A u_{2}} {\cdots} {A u_{n}} \\ { |} { |} {} { |}\end{array}\right]\left[\begin{array}{ccc}{ |} { |} { |} { |}\\ {\lambda_{1} u_{1}} {\lambda_{2} u_{2}} {\cdots} {\lambda_{n} u_{n}} \\ { |} { |} {|} { |}\end{array}\right]U \operatorname{diag}\left(\lambda_{1}, \ldots, \lambda_{n}\right)U \Lambda \] 考虑到正交矩阵\(U\)满足\(UU^TI\)利用上面的方程我们得到 \[AAUU^TU\Lambda U^T \] 这种\(A\)的新的表示形式为\(U\Lambda U^T\)通常称为矩阵\(A\)的对角化。术语对角化是这样来的通过这种表示我们通常可以有效地将对称矩阵\(A\)视为对角矩阵 , 这更容易理解。关于由特征向量\(U\)定义的基础 我们将通过几个例子详细说明。 背景知识代表另一个基的向量。 任何正交矩阵\(U\left[\begin{array}{cccc}{ |} { |} {} { |} \\ {u_{1}} {u_{2}} {\cdots} {u_{n}} \\ { |} { |} {} { |}\end{array}\right]\)定义了一个新的属于\(\mathbb {R}^{n}\)的基(坐标系)意义如下对于任何向量\(x \in\mathbb{R}^{n}\)都可以表示为\(u_1\cdots u_n\)的线性组合其系数为\(x_1,\cdots x_n\) \[x\hat x_1u_1\cdots \cdots \hat x_nu_nU\hat x \] 在第二个等式中我们使用矩阵和向量相乘的方法。 实际上这种\(\hat x\)是唯一存在的: \[xU \hat{x} \Leftrightarrow U^{T} x\hat{x} \] 换句话说向量\(\hat xU^Tx\)可以作为向量\(x\)的另一种表示与\(U\)定义的基有关。 “对角化”矩阵向量乘法。 通过上面的设置我们将看到左乘矩阵\(A\)可以被视为左乘以对角矩阵关于特征向量的基。 假设\(x\)是一个向量\(\hat x\)表示\(U\)的基。设\(zAx\)为矩阵向量积。现在让我们计算关于\(U\)的基\(z\) 然后再利用\(UU^TU^TI\)和方程\(AAUU^TU\Lambda U^T\)我们得到 \[\hat{z}U^{T} zU^{T} A xU^{T} U \Lambda U^{T} x\Lambda \hat{x}\left[\begin{array}{c}{\lambda_{1} \hat{x}_{1}} \\ {\lambda_{2} \hat{x}_{2}} \\ {\vdots} \\ {\lambda_{n} \hat{x}_{n}}\end{array}\right] \] 我们可以看到原始空间中的左乘矩阵\(A\)等于左乘对角矩阵\(\Lambda\)相对于新的基即仅将每个坐标缩放相应的特征值。 在新的基上矩阵多次相乘也变得简单多了。例如假设\(qAAAx\)。根据\(A\)的元素导出\(q\)的分析形式使用原始的基可能是一场噩梦但使用新的基就容易多了 \[\hat{q}U^{T} qU^{T} AAA xU^{T} U \Lambda U^{T} U \Lambda U^{T} U \Lambda U^{T} x\Lambda^{3} \hat{x}\left[\begin{array}{c}{\lambda_{1}^{3} \hat{x}_{1}} \\ {\lambda_{2}^{3} \hat{x}_{2}} \\ {\vdots} \\ {\lambda_{n}^{3} \hat{x}_{n}}\end{array}\right] \] “对角化”二次型。作为直接的推论二次型\(x^TAx\)也可以在新的基上简化。 \[x^{T} A xx^{T} U \Lambda U^{T} x\hat{x} \Lambda \hat{x}\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2} \] (回想一下在旧的表示法中\(x^{T} A x\sum_{i1, j1}^{n} x_{i} x_{j} A_{i j}\)涉及一个\(n^2\)项的和而不是上面等式中的\(n\)项。)利用这个观点我们还可以证明矩阵\(A\)的正定性完全取决于其特征值的符号 如果所有的\(\lambda_i0\)则矩阵\(A\)正定的因为对于任意的\(\hat x \ne 0\),\(x^{T} A x\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2}0\)如果所有的\(\lambda_i\geq 0\)则矩阵\(A\)是为正半定因为对于任意的$\hat x \(,\)x^{T} A x\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2} \geq 0$同样如果所有\(\lambda_i0\)或\(\lambda_i\leq 0\)则矩阵\(A\)分别为负定或半负定。最后如果\(A\)同时具有正特征值和负特征值比如λ\(\lambda_i0\)和\(\lambda_j0\)那么它是不定的。这是因为如果我们让\(\hat x\)满足\(\hat x_i1\)和\(\hat x_k0\)同时所有的\(k\ne i\)那么\(x^{T} A x\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2}0\) ,我们让\(\hat x\)满足\(\hat x_i1\)和\(\hat x_k0\)同时所有的\(k\ne i\)那么\(x^{T} A x\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2}0\) 特征值和特征向量经常出现的应用是最大化矩阵的某些函数。特别是对于矩阵\(A \in \mathbb{S}^{n}\)考虑以下最大化问题 \[\max _{x \in \mathbb{R}^{n}} \ x^{T} A x\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2} \quad \text { subject to }\|x\|_{2}^{2}1 \] 也就是说我们要找到(范数1)的向量它使二次型最大化。假设特征值的阶数为\(\lambda_1 \geq \lambda _2 \geq \cdots \lambda_n\)此优化问题的最优值为\(\lambda_1\)且与\(\lambda_1\)对应的任何特征向量\(u_1\)都是最大值之一。(如果\(\lambda_1 \lambda_2\)那么有一个与特征值\(\lambda_1\)对应的唯一特征向量它是上面那个优化问题的唯一最大值。) 我们可以通过使用对角化技术来证明这一点注意通过公式\(\|U x\|_{2}\|x\|_{2}\)推出\(\|x\|_{2}\|\hat{x}\|_{2}\)并利用公式 \(x^{T} A xx^{T} U \Lambda U^{T} x\hat{x} \Lambda \hat{x}\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2}\)我们可以将上面那个优化问题改写为 \[\max _{\hat{x} \in \mathbb{R}^{n}}\ \hat{x}^{T} \Lambda \hat{x}\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2} \quad \text { subject to }\|\hat{x}\|_{2}^{2}1 \] 然后我们得到目标的上界为\(\lambda_1\) \[\hat{x}^{T} \Lambda \hat{x}\sum_{i1}^{n} \lambda_{i} \hat{x}_{i}^{2} \leq \sum_{i1}^{n} \lambda_{1} \hat{x}_{i}^{2}\lambda_{1} \] 此外设置\(\hat{x}\left[\begin{array}{c}{1} \\ {0} \\ {\vdots} \\ {0}\end{array}\right]\)可让上述等式成立这与设置\(xu_1\)相对应。 4.矩阵微积分 虽然前面章节中的主题通常包含在线性代数的标准课程中但似乎很少涉及(我们将广泛使用)的一个主题是微积分扩展到向量设置展。尽管我们使用的所有实际微积分都是相对微不足道的但是符号通常会使事情看起来比实际困难得多。 在本节中我们将介绍矩阵微积分的一些基本定义并提供一些示例。 4.1 梯度 假设\(f: \mathbb{R}^{m \times n} \rightarrow \mathbb{R}\)是将维度为\(m \times n\)的矩阵\(A\in \mathbb{R}^{m \times n}\)作为输入并返回实数值的函数。 然后\(f\)的梯度(相对于\(A\in \mathbb{R}^{m \times n}\))是偏导数矩阵定义如下 \[\nabla_{A} f(A) \in \mathbb{R}^{m \times n}\left[\begin{array}{cccc}{\frac{\partial f(A)}{\partial A_{11}}} {\frac{\partial f(A)}{\partial A_{12}}} {\cdots} {\frac{\partial f(A)}{\partial A_{1n}}} \\ {\frac{\partial f(A)}{\partial A_{21}}} {\frac{\partial f(A)}{\partial A_{22}}} {\cdots} {\frac{\partial f(A)}{\partial A_{2 n}}} \\ {\vdots} {\vdots} {\ddots} {\vdots} \\ {\frac{\partial f(A)}{\partial A_{m 1}}} {\frac{\partial f(A)}{\partial A_{m 2}}} {\cdots} {\frac{\partial f(A)}{\partial A_{m n}}}\end{array}\right] \] 即\(m \times n\)矩阵: \[\left(\nabla_{A} f(A)\right)_{i j}\frac{\partial f(A)}{\partial A_{i j}} \] 请注意$\nabla_{A} f(A) \(的维度始终与\)A\(的维度相同。特殊情况如果\)A\(只是向量\)A\in \mathbb{R}^{n}$则 \[\nabla_{x} f(x)\left[\begin{array}{c}{\frac{\partial f(x)}{\partial x_{1}}} \\ {\frac{\partial f(x)}{\partial x_{2}}} \\ {\vdots} \\ {\frac{\partial f(x)}{\partial x_{n}}}\end{array}\right] \] 重要的是要记住只有当函数是实值时即如果函数返回标量值才定义函数的梯度。例如\(A\in \mathbb{R}^{m \times n}\)相对于\(x\)我们不能取\(Ax\)的梯度因为这个量是向量值。 它直接从偏导数的等价性质得出 \(\nabla_{x}(f(x)g(x))\nabla_{x} f(x)\nabla_{x} g(x)\) 对于\(t \in \mathbb{R}\) \(\nabla_{x}(t f(x))t \nabla_{x} f(x)\) 原则上梯度是偏导数对多变量函数的自然延伸。然而在实践中由于符号的原因使用梯度有时是很困难的。例如假设\(A\in \mathbb{R}^{m \times n}\)是一个固定系数矩阵假设\(b\in \mathbb{R}^{m}\)是一个固定系数向量。设\(f: \mathbb{R}^{m \times n} \rightarrow \mathbb{R}\)为\(f(z)z^Tz\)定义的函数因此\(\nabla_{z}f(z)2z\)。但现在考虑表达式 \[\nabla f(Ax) \] 该表达式应该如何解释 至少有两种可能性 1.在第一个解释中回想起\(\nabla_{z}f(z)2z\)。 在这里我们将\(\nabla f(Ax)\)解释为评估点\(Ax\)处的梯度因此: \[\nabla f(A x)2(A x)2 A x \in \mathbb{R}^{m} \] 2.在第二种解释中我们将数量\(f(Ax)\)视为输入变量\(x\)的函数。 更正式地说设\(g(x) f(Ax)\)。 然后在这个解释中: \[\nabla f(A x)\nabla_{x} g(x) \in \mathbb{R}^{n} \] 在这里我们可以看到这两种解释确实不同。 一种解释产生\(m\)维向量作为结果而另一种解释产生\(n\)维向量作为结果 我们怎么解决这个问题 这里关键是要明确我们要区分的变量。 在第一种情况下我们将函数\(f\)与其参数\(z\)进行区分然后替换参数\(Ax\)。 在第二种情况下我们将复合函数\(g(x)f(Ax)\)直接与\(x\)进行微分。 我们将第一种情况表示为\(\nabla zf(Ax)\)第二种情况表示为\(\nabla xf(Ax)\)。 保持符号清晰是非常重要的以后完成课程作业时候你就会发现。 4.2 黑塞矩阵 假设\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\)是一个函数它接受\(\mathbb{R}^{n}\)中的向量并返回实数。那么关于\(x\)的黑塞矩阵(也有翻译作海森矩阵)写做\(\nabla_x ^2 f(A x)\)或者简单地说\(H\)是\(n \times n\)矩阵的偏导数 \[\nabla_{x}^{2} f(x) \in \mathbb{R}^{n \times n}\left[\begin{array}{cccc}{\frac{\partial^{2} f(x)}{\partial x_{1}^{2}}} {\frac{\partial^{2} f(x)}{\partial x_{1} \partial x_{2}}} {\cdots} {\frac{\partial^{2} f(x)}{\partial x_{1} \partial x_{n}}} \\ {\frac{\partial^{2} f(x)}{\partial x_{2} \partial x_{1}}} {\frac{\partial^{2} f(x)}{\partial x_{2}^{2}}} {\cdots} {\frac{\partial^{2} f(x)}{\partial x_{2} \partial x_{n}}} \\ {\vdots} {\vdots} {\ddots} {\vdots} \\ {\frac{\partial^{2} f(x)}{\partial x_{n} \partial x_{1}}} {\frac{\partial^{2} f(x)}{\partial x_{n} \partial x_{2}}} {\cdots} {\frac{\partial^{2} f(x)}{\partial x_{n}^{2}}}\end{array}\right] \] 换句话说\(\nabla_{x}^{2} f(x) \in \mathbb{R}^{n \times n}\)其 \[\left(\nabla_{x}^{2} f(x)\right)_{i j}\frac{\partial^{2} f(x)}{\partial x_{i} \partial x_{j}} \] 注意黑塞矩阵通常是对称阵 \[\frac{\partial^{2} f(x)}{\partial x_{i} \partial x_{j}}\frac{\partial^{2} f(x)}{\partial x_{j} \partial x_{i}} \] 与梯度相似只有当\(f(x)\)为实值时才定义黑塞矩阵。 很自然地认为梯度与向量函数的一阶导数的相似而黑塞矩阵与二阶导数的相似(我们使用的符号也暗示了这种关系)。 这种直觉通常是正确的但需要记住以下几个注意事项。 首先对于一个变量\(f: \mathbb{R} \rightarrow \mathbb{R}\)的实值函数它的基本定义二阶导数是一阶导数的导数即 \[\frac{\partial^{2} f(x)}{\partial x^{2}}\frac{\partial}{\partial x} \frac{\partial}{\partial x} f(x) \] 然而对于向量的函数函数的梯度是一个向量我们不能取向量的梯度即: \[\nabla_{x} \nabla_{x} f(x)\nabla_{x}\left[\begin{array}{c}{\frac{\partial f(x)}{\partial x_{1}}} \\ {\frac{\partial f(x)}{\partial x_{2}}} \\ {\vdots} \\ {\frac{\partial f(x)}{\partial x_{n}}}\end{array}\right] \] 上面这个表达式没有意义。 因此黑塞矩阵不是梯度的梯度。 然而下面这种情况却这几乎是正确的如果我们看一下梯度\(\left(\nabla_{x} f(x)\right)_{i}\partial f(x) / \partial x_{i}\)的第\(i\)个元素并取关于于\(x\)的梯度我们得到 \[\nabla_{x} \frac{\partial f(x)}{\partial x_{i}}\left[\begin{array}{c}{\frac{\partial^{2} f(x)}{\partial x_{i} \partial x_{1}}} \\ {\frac{\partial^{2} f(x)}{\partial x_{2} \partial x_{2}}} \\ {\vdots} \\ {\frac{\partial f(x)}{\partial x_{i} \partial x_{n}}}\end{array}\right] \] 这是黑塞矩阵第\(i\)行(列),所以 \[\nabla_{x}^{2} f(x)\left[\nabla_{x}\left(\nabla_{x} f(x)\right)_{1} \quad \nabla_{x}\left(\nabla_{x} f(x)\right)_{2} \quad \cdots \quad \nabla_{x}\left(\nabla_{x} f(x)\right)_{n}\right] \] 简单地说我们可以说由于\(\nabla_{x}^{2} f(x)\nabla_{x}\left(\nabla_{x} f(x)\right)^{T}\)只要我们理解这实际上是取\(\nabla_{x} f(x)\)的每个元素的梯度而不是整个向量的梯度。 最后请注意虽然我们可以对矩阵\(A\in \mathbb{R}^{n}\)取梯度但对于这门课我们只考虑对向量\(x \in \mathbb{R}^{n}\)取黑塞矩阵。 这会方便很多(事实上我们所做的任何计算都不要求我们找到关于矩阵的黑森方程)因为关于矩阵的黑塞方程就必须对矩阵所有元素求偏导数\(\partial^{2} f(A) /\left(\partial A_{i j} \partial A_{k \ell}\right)\)将其表示为矩阵相当麻烦。 4.3 二次函数和线性函数的梯度和黑塞矩阵 现在让我们尝试确定几个简单函数的梯度和黑塞矩阵。 应该注意的是这里给出的所有梯度都是CS229讲义中给出的梯度的特殊情况。 对于\(x \in \mathbb{R}^{n}\), 设\(f(x)b^Tx\) 的某些已知向量\(b \in \mathbb{R}^{n}\) 则 \[f(x)\sum_{i1}^{n} b_{i} x_{i} \] 所以 \[\frac{\partial f(x)}{\partial x_{k}}\frac{\partial}{\partial x_{k}} \sum_{i1}^{n} b_{i} x_{i}b_{k} \] 由此我们可以很容易地看出\(\nabla_{x} b^{T} xb\)。 这应该与单变量微积分中的类似情况进行比较其中\(\partial /(\partial x) a xa\)。 现在考虑\(A\in \mathbb{S}^{n}\)的二次函数\(f(x)x^TAx\)。 记住这一点 \[f(x)\sum_{i1}^{n} \sum_{j1}^{n} A_{i j} x_{i} x_{j} \] 为了取偏导数我们将分别考虑包括\(x_k\)和\(x_2^k\)因子的项 \[\begin{aligned} \frac{\partial f(x)}{\partial x_{k}} \frac{\partial}{\partial x_{k}} \sum_{i1}^{n} \sum_{j1}^{n} A_{i j} x_{i} x_{j} \\ \frac{\partial}{\partial x_{k}}\left[\sum_{i \neq k} \sum_{j \neq k} A_{i j} x_{i} x_{j}\sum_{i \neq k} A_{i k} x_{i} x_{k}\sum_{j \neq k} A_{k j} x_{k} x_{j}A_{k k} x_{k}^{2}\right] \\ \sum_{i \neq k} A_{i k} x_{i}\sum_{j \neq k} A_{k j} x_{j}2 A_{k k} x_{k} \\ \sum_{i1}^{n} A_{i k} x_{i}\sum_{j1}^{n} A_{k j} x_{j}2 \sum_{i1}^{n} A_{k i} x_{i} \end{aligned} \] 最后一个等式是因为\(A\)是对称的(我们可以安全地假设因为它以二次形式出现)。 注意\(\nabla_{x} f(x)\)的第\(k\)个元素是\(A\)和\(x\)的第\(k\)行的内积。 因此\(\nabla_{x} x^{T} A x2 A x\)。 同样这应该提醒你单变量微积分中的类似事实即\(\partial /(\partial x) a x^{2}2 a x\)。 最后让我们来看看二次函数\(f(x)x^TAx\)黑塞矩阵(显然线性函数\(b^Tx\)的黑塞矩阵为零)。在这种情况下: \[\frac{\partial^{2} f(x)}{\partial x_{k} \partial x_{\ell}}\frac{\partial}{\partial x_{k}}\left[\frac{\partial f(x)}{\partial x_{\ell}}\right]\frac{\partial}{\partial x_{k}}\left[2 \sum_{i1}^{n} A_{\ell i} x_{i}\right]2 A_{\ell k}2 A_{k \ell} \] 因此应该很清楚\(\nabla_{x}^2 x^{T} A x2 A\)这应该是完全可以理解的(同样类似于\(\partial^2 /(\partial x^2) a x^{2}2a\)的单变量事实)。 简要概括起来 \(\nabla_{x} b^{T} xb\) \(\nabla_{x} x^{T} A x2 A x\) (如果\(A\)是对称阵) $\nabla_{x}^2 x^{T} A x2 A $ (如果\(A\)是对称阵) 4.4 最小二乘法 让我们应用上一节中得到的方程来推导最小二乘方程。假设我们得到矩阵\(A\in \mathbb{R}^{m \times n}\)(为了简单起见我们假设\(A\)是满秩)和向量\(b\in \mathbb{R}^{m}\)从而使\(b \notin \mathcal{R}(A)\)。在这种情况下我们将无法找到向量\(x\in \mathbb{R}^{n}\)由于\(Ax b\)因此我们想要找到一个向量\(x\)使得\(Ax\)尽可能接近 \(b\)用欧几里德范数的平方$|A x-b|_{2}^{2} $来衡量。 使用公式\(\|x\|^{2}x^Tx\)我们可以得到 \[\begin{aligned}\|A x-b\|_{2}^{2} (A x-b)^{T}(A x-b) \\ x^{T} A^{T} A x-2 b^{T} A xb^{T} b \end{aligned} \] 根据\(x\)的梯度并利用上一节中推导的性质 \[\begin{aligned} \nabla_{x}\left(x^{T} A^{T} A x-2 b^{T} A xb^{T} b\right) \nabla_{x} x^{T} A^{T} A x-\nabla_{x} 2 b^{T} A x\nabla_{x} b^{T} b \\ 2 A^{T} A x-2 A^{T} b \end{aligned} \] 将最后一个表达式设置为零然后解出\(x\)得到了正规方程 \[x (A^TA)^{-1}A^Tb \] 这和我们在课堂上得到的相同。 4.5 行列式的梯度 现在让我们考虑一种情况我们找到一个函数相对于矩阵的梯度也就是说对于\(A\in \mathbb{R}^{n \times n}\)我们要找到\(\nabla_{A}|A|\)。回想一下我们对行列式的讨论 \[|A|\sum_{i1}^{n}(-1)^{ij} A_{i j}\left|A_{\backslash i, \backslash j}\right| \quad(\text { for any } j \in 1, \ldots, n) \] 所以 \[\frac{\partial}{\partial A_{k \ell}}|A|\frac{\partial}{\partial A_{k \ell}} \sum_{i1}^{n}(-1)^{ij} A_{i j}\left|A_{\backslash i, \backslash j}\right|(-1)^{k\ell}\left|A_{\backslash k,\backslash \ell}\right|(\operatorname{adj}(A))_{\ell k} \] 从这里可以知道它直接从伴随矩阵的性质得出 \[\nabla_{A}|A|(\operatorname{adj}(A))^{T}|A| A^{-T} \] 现在我们来考虑函数\(f : \mathbb{S}_{}^{n} \rightarrow \mathbb{R}\)\(f(A)\log |A|\)。注意我们必须将\(f\)的域限制为正定矩阵因为这确保了\(|A|0\)因此\(|A|\)的对数是实数。在这种情况下我们可以使用链式法则(没什么奇怪的只是单变量演算中的普通链式法则)来看看 \[\frac{\partial \log |A|}{\partial A_{i j}}\frac{\partial \log |A|}{\partial|A|} \frac{\partial|A|}{\partial A_{i j}}\frac{1}{|A|} \frac{\partial|A|}{\partial A_{i j}} \] 从这一点可以明显看出 \[\nabla_{A} \log |A|\frac{1}{|A|} \nabla_{A}|A|A^{-1} \] 我们可以在最后一个表达式中删除转置因为\(A\)是对称的。注意与单值情况的相似性其中\(\partial /(\partial x) \log x1 / x\)。 4.6 特征值优化 最后我们使用矩阵演算以直接导致特征值/特征向量分析的方式求解优化问题。 考虑以下等式约束优化问题 \[\max _{x \in \mathbb{R}^{n}} x^{T} A x \quad \text { subject to }\|x\|_{2}^{2}1 \] 对于对称矩阵\(A\in \mathbb{S}^{n}\)。求解等式约束优化问题的标准方法是采用拉格朗日形式一种包含等式约束的目标函数在这种情况下拉格朗日函数可由以下公式给出 \[\mathcal{L}(x, \lambda)x^{T} A x-\lambda x^{T} x \] 其中$\lambda \(被称为与等式约束关联的拉格朗日乘子。可以确定要使\)x*$成为问题的最佳点拉格朗日的梯度必须在$x*$处为零(这不是唯一的条件但它是必需的)。也就是说 \[\nabla_{x} \mathcal{L}(x, \lambda)\nabla_{x}\left(x^{T} A x-\lambda x^{T} x\right)2 A^{T} x-2 \lambda x0 \] 请注意这只是线性方程\(Ax \lambda x\)。 这表明假设\(x^T x 1\)可能最大化(或最小化)\(x^T Ax\)的唯一点是\(A\)的特征向量。 线性代数和概率论都已经翻译完毕请关注github的更新若有修改将在github上更新 欢迎大家提交PR对语言进行润色。 翻译黄海广
http://www.pierceye.com/news/143633/

相关文章:

  • php 网站做分享功能重庆建设工程信息网30系统
  • 西部数码创建php网站北京上云网站建设公司
  • 中标建设集团有限公司 网站游戏开发软件有哪些
  • 上饶哪里做网站办公家具网站建设公司
  • 建设银行园湖路支行网站外贸网站建设需要注意什么
  • 失物招领网站开发项目需求分析app开发定制公司哪家好做
  • 网站不用备案阿里云 wordpress搭建网站
  • 重庆网站推广软件小朋友做安全教育的网站
  • 商家自己做的商品信息查询网站互联网有哪些行业
  • 用dw做网站时怎么添加弹窗知名网站服务器
  • 网站备案做优惠券第一营销网
  • 网站策划的基本过程全国大型网站建设
  • 个人外贸网站杭州微网站建设公司
  • wordpress皮肤下载站安徽建设工程信息网官方网站
  • 自己的电脑做服务器 并建网站asp sql网站安全性
  • 创新创业营销策略网站建设等信息系统开发计划
  • 安徽建设信息网站做胃镜多少钱天津津门网站I
  • jrs直播网站谁做的广告设计与制作专升本
  • 辽 icp 大连 网站建设个人网站做的类型
  • 做网站搞友情链接网站建设有哪些类型
  • 网站建设更新维护工作总结网站建设源文件
  • 公益网站 html 模板wordpress权限acl
  • 廊坊市网站建设企业网站设计特点
  • 网站建设论证方案传媒的域名做个什么网站
  • 成都建设网站企业电话国内信息图制作网站有哪些
  • 网站 图片切换wordpress永久免费
  • 自建社区网站网站建设全包设计
  • 广东装饰网站建设建设银行官网网站人事
  • 做网站设计赚钱吗保定模板建站平台
  • 找个免费网站这么难吗做球形全景的网站