Linear Algebra Learning Notes: Specialized for Japanese Graduate Entrance Exams
1. 核心概念复习:列空间 (Column Space) 与 零空间 (Nullspace)
1.1 零空间 的本质
- 数学定义:满足 的所有解 的集合。
- 几何本质:矩阵列向量的线性组合等于零向量。例如,若 在 中,则表示 ,即列向量线性相关。
- 子空间性质:零空间对数乘 and 加法封闭,是一个真正的向量子空间。
1.2 列空间 与秩 (Rank)
- 数学定义:矩阵所有列向量的线性组合构成的空间。
- 秩 :主元 (pivots) 的个数,代表列空间中独立向量的数量。
- 几何形状:
- :穿过原点的直线。
- :穿过原点的平面。
- :充满整个 维空间。
2. 黄金法则:秩-零化度定理 (Rank-Nullity Theorem)
对于一个 的矩阵 :
- 物理意义:输入信息被分流,维度为 的信息转化为非零输出,维度为 的信息被“抹除”进入零空间。
3. 实战练习与证明破局
3.1 基础训练:列向量关系判定
题目:若 在 3x3 矩阵 的零空间 中,列向量 有何关系?
- 解析:由 可知, 。这说明列向量线性相关,矩阵为奇异矩阵。
3.2 难点攻克:含参矩阵分析
题目:给定 ,求 为何值时 存在非零向量?
- 关键点:高斯消元后,若要存在非零解(即存在自由变量),必须出现全零行。计算得出 。
- 结论:当 时,零空间向量为 ,对应列空间 是一个由前两列张成的 2D 平面。
3.3 抽象矩阵证明思路
题目:证明若 ,则 。
- 翻译机制:
- 若 ,则存在 使得 。
- 要证 ,只需证 。
- 带入得 。
- 结论延伸:由于 ,则维度满足 ,即 。
4. 终极版: 的完整解结构
4.1 通解公式
- (Particular Solution):特解,将解平移到正确位置。令所有自由变量为 0 即可快速求得。
- (Nullspace Solution):零空间通解,代表解的延展方向。
4.2 案例演示:Gauss-Jordan 消元实操
针对以下方程组:
通过初等行变换化为 最简行阶梯形 (RREF):
完整解:
手写过程参考

5. 解的结构预言:四种命运
通过 (秩)、 (行/方程数)、 (列/未知数) 的关系直接断定解的性质:
| 形态 | 关系 | 几何/解的特征 | 解的数量 |
|---|---|---|---|
| 满秩方阵 | 最完美形态,存在逆矩阵 | 唯一解 | |
| 满列秩 | 瘦高型,无自由变量 | 0 或 1 个解 | |
| 满行秩 | 矮胖型,无全零行,必有解 | 无数个解 | |
| 秩亏缺 | 且 | 残缺型,行列都不满 | 0 或 无数个解 |
备考技巧:在考试中看到 矩阵,由于 ,立刻可知存在自由变量,该方程组绝对不可能有“唯一解”。
线性代数进阶复习笔记:从谱理论到 SVD
核心哲学: 所有的矩阵分解,本质上都是在寻找一套最能简化物理规律的“尺子(基底)”。
👑 一、 核心矩阵结构及其谱性质 (Spectral Properties)
这部分是线性代数的“面相学”。通过矩阵的形状,直接判定其最深刻的代数与物理基因。
| 矩阵类型 | 定义 / 判定条件 | 特征值 () 性质 | 特征向量 () 性质 | 物理/几何意义 |
|---|---|---|---|---|
| 对称矩阵 (Symmetric) | 必为实数 () | 不同特征值的特征向量必正交 | 完美的坐标轴拉伸,无旋转 | |
| 正定矩阵 (Positive Definite) | (对 ) | 全部大于 0 () | 构成 的正交基 | 能量永远为正,存在全局唯一极小值 (碗底) |
| 正交矩阵 (Orthogonal) | 模长绝对为 1 () | —— | 保长变换 (纯旋转或翻转), | |
| 反对称矩阵 (Skew-Symmetric) | 纯虚数或 0 () | 属于正规矩阵族,特征向量正交 | 能量守恒,系统做无衰减的纯周期震荡 | |
| 三角矩阵 (Triangular) | 左下/右上全为 0 | 主对角线上的元素 | —— | 连乘路线被阻断,方程直接降维解耦 |
🌟 谱定理 (Spectral Theorem): > 任何实对称矩阵 都可以被正交对角化为 。
🪜 二、 矩阵分解的阶梯 (Hierarchy of Matrix Factorizations)
1. 对角化 (Diagonalization)
- 公式:
- 前提: 必须拥有 个线性无关的特征向量。
- 本质: 在特征基底视角下,错综复杂的空间变换被完美解耦为 个独立方向的纯缩放。
2. 若尔当标准型 (Jordan Form)
- 公式:
- 适用: 所有的方阵(包括特征向量缺失的残疾/退化矩阵)。
- 结构: 是由若尔当块组成的准对角阵。
- 终极判决: 一个若尔当块,不论尺寸多大,永远只能提供 1 个特征向量。若尔当块的数量 = 系统中真实独立特征向量的数量。
3. 奇异值分解 (Singular Value Decomposition, SVD)
- 公式:
- 适用: 任意 矩阵,线性代数最普适的终极解药。
- 代数构造:
- 是 的标准化特征向量矩阵(属于原空间的完美正交基)。
- 是 的标准化特征向量矩阵(属于目标空间的完美正交基)。
- 的对角线元素 ,代表拉伸的绝对倍数。
- 几何意义: 任何复杂的变形 ,都等价于:旋转 () 独立拉伸 () 再旋转 ()。
📐 三、 心算秒杀捷径 (Cheat Codes)
在考场上,这些法则是绕过复杂一元高次方程的利器。
- 生死的绑定:迹与行列式
- 迹 (Trace) = 主对角线之和 =
- 行列式 (Det) =
- 常量对角对称矩阵
- 特征值直接秒杀:
- 特征向量永恒锁定: 和
- 秩为 1 的矩阵 (Rank = 1)
- 所有行/列成比例。
- 特征值:有且仅有 1 个非零特征值(刚好等于 Trace),其余全部为 0。
🌐 四、 线性变换与物理时空观
1. 线性变换的判别
真正的线性变换必须满足叠加原理:
- 致命法则: 必须等于 。原点偏移(如平移 )绝不是线性变换。
2. 基底锁定全宇宙
- 如果想知道一个线性变换对全宇宙任意点 的效果,不需要全场追踪。
- 只需要追踪基底的落点(例如 )。
- 矩阵 就是这本记录册! 矩阵的每一列,就是空间基础网格(基向量)被变换后落下的坐标。
3. 预测未来:常微分方程组
- 系统方程:
- 时间演化公式:
- 特征值解耦降维打击:
- 通过特征值看透系统宿命:
- 实部 :能量衰减,系统归于死寂。
- 实部 :能量爆炸,系统发散崩溃。
- 纯虚数 ():能量守恒,永无止境的周期性震荡。
典型例题:基于谱信息(特征值与特征向量)的矩阵属性判定
【题目描述】 已知某 矩阵 的特征值分别为:
其对应的特征向量分别为:
请根据以上信息,回答下列问题并给出严格的代数理由:
- (a) 矩阵 是否可对角化 (Diagonalizable)?变量 需要满足什么条件?
- (b) 矩阵 是否为对称矩阵 (Symmetric)?变量 需要满足什么条件?
- (c) 矩阵 是否为正定矩阵 (Positive definite)?
- (d) 矩阵 是否为马尔可夫矩阵 (Markov matrix)?
- (e) 令 ,矩阵 是否为投影矩阵 (Projection matrix)?变量 需要满足什么条件?
【思路剖析(隐藏的阵眼)】 在动笔做题前,观察给定的三个特征向量,计算它们的内积(点积):
结论:三个特征向量两两正交。 这是一个极其强大的隐藏条件,也是解答后续问题的核心依据。
【详细解答】
(a) 矩阵 是否可对角化?
- 结论: 是。对任意实数或复数 均成立。
- 理由: 矩阵 的三个特征向量 互相正交,因此它们必定线性无关。一个 矩阵只要拥有 3 个线性无关的特征向量,即可构成可逆的特征向量矩阵 ,从而满足 ,故必然可对角化。即便 或 导致特征值存在重根,正交性依然保证了特征向量的线性无关性。
(b) 矩阵 是否为对称矩阵?
- 结论: 是。要求 必须为实数 ()。
- 理由: 根据谱定理 (Spectral Theorem),一个矩阵是对称矩阵当且仅当它拥有完备的正交特征向量组,且所有特征值均为实数。已知特征向量已经正交,因此只要未知特征值 是实数,矩阵 就必定是对称矩阵。
(c) 矩阵 是否为正定矩阵?
- 结论: 否 (No)。
- 理由: 正定矩阵的定义要求系统能量绝对为正,在特征值上的反映是所有的特征值必须严格大于 0 ()。已知第一特征值 ,不满足严格大于 0 的条件。(注:若限制 ,该矩阵可被称为“半正定矩阵” Positive Semi-Definite)。
(d) 矩阵 是否为马尔可夫矩阵?
- 结论: 否 (No)。
- 理由: 马尔可夫矩阵描述的是概率转移,系统的总概率保持不变,因此其最大特征值必须严格等于 1。已知该矩阵存在特征值 ,这意味着系统状态的模长会随时间呈指数级爆炸,因此绝对不可能是马尔可夫矩阵。
(e) 是否为投影矩阵?
- 结论: 是。要求 或 。
- 理由: 投影矩阵的几何性质决定了“投影两次等于投影一次”,即必须满足 。代入特征值方程可知 ,解得投影矩阵的特征值只能是 或 。 由于 ,根据线性代数法则,矩阵 的特征值为矩阵 特征值的一半,即: 为了使 满足投影矩阵的条件,未知的特征值 必须等于 或 。 解得: 或 。
【考点总结】
- 对角化的充要条件: 拥有 个线性无关的特征向量(与特征值是否重复/有无重根无关)。
- 谱定理逆用: 正交特征向量组 + 纯实数特征值 对称矩阵。
- 正定性判定: 全体特征值 (有一票否决制)。
- 投影矩阵特征: 特征值被死死锁定在集合 中。
SVD分解过程
我们选这个稍微有点不对称的矩阵:
目标是求出:。
第一步:找原空间的基底与拉伸量(求 和 )
因为直接处理 很难,我们构造对称矩阵 。
1. 算
2. 找特征值(决定 ) 出现了一个对角线数字相同的常量对称矩阵!立刻触发我们的**“心算秒杀法则”**:
- 第一特征值:
- 第二特征值:
因为奇异值是特征值的平方根(),所以:
直接写出奇异值矩阵(从大到小排):
3. 找特征向量(决定 ) 继续触发秒杀法则!这种矩阵的特征向量永远死死绑定在 和 方向。
我们面对的矩阵是 。 我们已经算出了两个特征值:。 现在我们要通过求解特征方程 ,找出它们对应的标准化特征向量 和 。
第一轮求解:代入
1. 构造 矩阵: 把主对角线上的数字减去 :
2. 解齐次线性方程组 : 展开得到两个方程:
可以看出,这两行表达的是同一个意思(这就是特征值使矩阵退化的必然结果)。化简后得到: 为了取最简单的整数解,我们令 。 得到基础特征向量:
3. 标准化(极其关键!SVD 要求向量长度必须为 1):
- 算长度:
- 缩放向量:将原向量除以长度。
第二轮求解:代入
1. 构造 矩阵: 把主对角线上的数字减去 :
2. 解方程组 : 两行完全一样:。化简后得到: 取最简单的一组整数解,令 。(当然你选 和 也完全可以)。 得到基础特征向量:
3. 标准化:
- 算长度:
- 缩放向量:
拼装矩阵
最后,把算出来的 和 按照列拼成正交矩阵 。
因为 SVD 公式 里需要的是转置矩阵 ,我们把它的行和列对调一下:
为了满足正交矩阵长度为 的要求,我们直接写出标准化后的特征向量:
- 对应 的向量:
- 对应 的向量:
把它们拼成右奇异矩阵 。在公式中我们需要的是 (按行排布):
第二步:找目标空间的基底(求 )
千万记住 Strang 教授在黑板上极其用力的 “Instead” 法则! 绝对不要去算 的特征向量,那样容易出现正负号断裂! 我们要用 SVD 的灵魂公式直接强推:。
1. 求 : 先算矩阵乘法: 把外面的分母乘进去(注意 ):
2. 求 : 先算矩阵乘法: 把外面的分母乘进去():
将 和 拼起来,这就是绝对安全的左奇异矩阵 :
(口算验证: 的两列点积是不是 ? 。长度是不是 ? 。完美正交!)
第三步:大满贯拼装
现在,我们将三个矩阵组合在一起,见证代数的极致对称美:
東京大学 新領域創成科学研究科 メディカル情報生命専攻 2025年8月実施 問題7
Author
Description
行列 について、以下の問いに答えよ。
(1) の固有値、固有ベクトルを求めよ。
(2) を満たす、非ゼロの を求めよ。
実行列 、 実行列 に対して、 を満たすベクトル は必ず を満たすとき、以下の二つを示せ。
(3)
(4) を満たす 実行列 が存在する。
Kai
(1)
行列 の固有値を とすると、特性方程式は次のように表される。
これを解くと、固有値は となる。
次に、それぞれの固有値に対する固有ベクトルを求める。 とおく。
のとき より、
よって、 が得られる。 したがって、対応する固有ベクトルは となる。
のとき より、
よって、 が得られる。 したがって、対応する固有ベクトルは となる。
以上より、固有値と固有ベクトルは以下の通りである。
- 固有値 に対する固有ベクトル:
- 固有値 に対する固有ベクトル:
(2)
(1) で求めた固有ベクトル は一次独立であるため、これらを基底として を表すことができる。 実数 を用いて、
と表すとする。このとき、 は次のように計算できる。
ここで、 の極限を考える。 であるため、 は発散する。 一方、 であり、 であるため、 となる。
したがって、 が成り立つためには、発散する項の係数 が でなければならない。
のとき、
となる。 は非ゼロであるため、 である。 よって、求める非ゼロのベクトル は、
である。
(3)
を 行列、 を 行列とする。 仮定より、 を満たすベクトル は必ず を満たす。 すなわち、行列 の核 (Null space) を 、行列 の核を とすると、
が成り立つ。 これより、それぞれの核の次元 (Nullity) について以下の不等式が成り立つ。
ここで、次元定理 (Rank-Nullity Theorem) より、任意の 行列 について、
が成り立つ。行列 と はともに 列の行列であるため、
となる。これらを変形して不等式に代入すると、
が示された。
English:
Let be an matrix and be an matrix. By assumption, any vector satisfying also satisfies . That is, if we denote the null space (kernel) of and as and respectively, then:
This implies the following inequality for the dimensions of the kernels (nullities):
From the Rank-Nullity Theorem, for any matrix :
Since matrices and both have columns, we have:
Substituting these into the inequality:
This completes the proof.
(4)
仮定より である。 任意の部分空間 について、その直交補空間を と表す。包含関係の直交補空間をとると、包含関係が逆転するため、
が成り立つ。 任意の行列について、その核の直交補空間は行空間 (Row space) と一致する。すなわち、行列 の行空間を とすると、 である。 これを用いると、上の包含関係は次のように表せる。
これは、行列 のすべての行ベクトルが、行列 の行ベクトルの線形結合として表せることを意味する。 行列 の 番目の行ベクトルを とし、行列 の 番目の行ベクトルを とすると、 任意の について、あるスカラー が存在して、
と表せる。 ここで、 を 成分に持つ 行列を と定義する。 このとき、行列の積 の第 行は となり、これは に等しい。 よって、 が成り立つ。 以上より、 を満たす 実行列 が存在することが示された。
English:
For any subspace , let denote its orthogonal complement. Taking the orthogonal complement of both sides reverses the inclusion relation:
For any matrix, the orthogonal complement of its null space is its row space. That is, if is the row space of matrix , then . Thus, the inclusion can be rewritten as:
This means every row vector of matrix can be expressed as a linear combination of the row vectors of matrix . Let be the -th row vector of , and be the -th row vector of .
Define an matrix where the -th entry is . Then, the -th row of the product is , which equals . Therefore, holds.
This proves that there exists an real matrix satisfying .
Summary
-
次元定理 (Rank-Nullity Theorem): (即:)。
-
题目条件翻译成数学语言。
最小二乘法
Question
Find the least squares solution for the system , where:
Solution
面对 无解的绝境,线性代数给出的终极拯救方案就是正规方程 (Normal Equations): 在等式两边同时左乘矩阵的转置 ,强行把方程变成有解的形态:
我们把这道题的数据代进去,一步一步把它算穿:
第一步:准备好弹药 (, , )
已知我们的原矩阵 和目标向量 :
首先,写出 的转置 (把列变成行):
第二步:组装对称正定方阵 ()
这是最神奇的一步!无论 原本有多么高瘦不规则,乘以自己的转置后,必定会生出一个完美的、可逆的对称方阵。
- 第一行乘第一列:
- 第一行乘第二列:
- 第二行乘第一列:
- 第二行乘第二列:
所以, (看到了吗?主对角线两侧都是 3,完美的对称矩阵!)
第三步:转化目标向量 ()
对目标 进行同样的降维打击:
- 第一行乘 :
- 第二行乘 :
所以,
第四步:解救 (求解正规方程)
现在,原本那个无解的 绝境,被我们完美转化成了一个极其标准的 线性方程组:
解这个方程简直易如反掌。我们求 的逆矩阵: 矩阵的行列式:。 利用口诀“主对角互换,副对角变号,除以行列式”:
把逆矩阵乘到右边去,彻底解放 :
化简这个分数:
💡 灵魂拷问:为什么要左乘 ?
这个看似流氓的“两边同乘 ”操作,绝不仅仅是为了凑出一个方阵,它的背后有着极其严密的几何物理意义。
我们复习一下刚刚讲的投影:
- 投影的本质是寻找列空间里离 最近的点 。
- 既然最近,那么产生的误差向量 必须绝对垂直于列空间 。
- 垂直于列空间的向量,归谁管?归四个基本子空间里的**“左零空间 ”**管!
这意味着,误差 掉进了 的零空间,所以:
把 代进去: 把括号拆开,移项:
既然已经算出了最优解 ,求投影 的过程,本质上就是把这个“配方”带回到原始矩阵 的仓库里去“抓药”。
1. 核心公式:投影就是列的线性组合
在最小二乘法中,投影向量 的定义极其简单:
这个公式的物理意义是:由于目标 不在列空间里,我们退而求其次,寻找列空间中离 最近的点。而 恰恰告诉了我们:“你应该用多少份的第一列和多少份的第二列,才能拼凑出这个最近的点。”
2. 具体的代数推导
我们将矩阵 和算出的 代入:
按照矩阵乘法(或者更直观的“列组合”视角)展开:
逐行计算:
- 第一行:
- 第二行:
- 第三行:
所以,投影向量为:
3. 为什么这个 很重要?
这个 就是你在统计学里寻找的那条“最佳拟合直线”在数据点上的预估值。
- 当 时,直线预测值是 。
- 当 时,直线预测值是 。
- 当 时,直线预测值是 。
如果你把这些预测值跟原始的观测值 做对比,你会发现它们之间存在垂直的误差。
总结
求投影 的第一步是解出 ,第二步就是简单的乘法 。这个 是列空间中对 的最佳近似。如果你想进一步验证,可以计算 ,你会发现 与 的每一列都正交,这说明你的投影找得严丝合缝。
東京大学 新領域創成科学研究科 メディカル情報生命専攻 2026年1月実施 問題7
Description
以下の問いに答えよ。
(1) 行列 の固有値を求めよ。
(2) 行列 の固有空間の基底を求めよ。
(3) が対角行列になるような直交行列 を求めよ。
(4) を三次元実ベクトルとする。 の最小値を与える最適解的集合は、三次元空間における直線になっている。この直線を表す方程式を示せ。
(5) 実数の成分からなる対称正方行列に対して、すべての固有値が異なるならば、すべての固有ベクトルは相互に直交することを証明せよ。
Kai
(1) 固有値の算出
行列 の固有方程式 を解く。
各列を第1列に加えると、
第2行および第3行から第1行を引くと、
ゆえに、行列 の固有値は ( は2重根) である。
(別解:サラスの公式による展開)
(2) 固有空間の基底
固有値 に属する固有空間 は、方程式 の解空間である。
① のとき
行基本変形により かつ を得る。すなわち 。 したがって、 の基底は以下の通りとなる。
② のとき
これは と同値である。 とおくと となる。 したがって、 の基底は以下の通りとなる。
(3) 直交行列による対角化
実対称行列は直交行列によって対角化可能である。各固有空間における正規直交基底を構成する。
-
の正規直交基底: を正規化すると、
となる。
-
の正規直交基底: とし、グラム・シュミットの直交化法を用いる。 まず を正規化すると、
となる。次に の に対する直交成分 を求めると、
これを正規化すると、
を得る。
以上より、求める直交行列 は以下の通りである。
(4) 二次形式の最小値と直線の方程式
直交行列 を用いて ()と変数変換を行うと、二次形式 は以下のように対角化される。
は実数であるため、 が成り立つ。 したがって、 の最小値は であり、条件は である。このとき、
これは固有空間 に属する任意のベクトルを表す。よって、最適解の集合がなす直線の方程式は である。
English:
By applying the orthogonal transformation using the matrix from (3), the quadratic form is diagonalized as:
Since , holds. The minimum value is achieved when , which implies is any multiple of the eigenvector :
Thus, the set of optimal solutions is the line .
(5) 【証明】 相異なる固有値に属する固有ベクトルの直交性
実対称行列 () の相異なる固有値を 、対応する固有ベクトルを とする。
式 の両辺を転置すると、 となる。 より、
この両辺に右から を掛けると、
一方、式 の左辺に式 を代入すると、
式 と より、
より であるから、
が成り立つ。これは と が直交することを意味する。(証明終)
English:
Let be distinct eigenvalues of a real symmetric matrix , with eigenvectors .
Taking the transpose of (i) and using , we have . Multiplying by from the right yields:
Simultaneously, from (ii), we have:
From (iii) and (iv), it follows that:
Since , we must have:
proving orthogonality. (Q.E.D.)
東京大学 新領域創成科学研究科 メディカル情報生命専攻 2025年1月実施 問題7
Description
長さ の 次元実縦ベクトル () に対し、 実行列 を と定義する。ここで、 は 単位行列、 は の転置を表す。以下の問に数学的導出も含め答えよ。
(1) 任意のベクトル に対し、 と置くとき、ベクトル はある実数 を用いて と書けることを示せ。
(2) と の長さは等しい () ことを示せ。
(3) ベクトル が つ与えられているとする。 がある実数 を用いて の形になるような を全て求めよ。
(4) ベクトル が つ与えられているとする。 がある実数 を用いて の形になるような を全て求めよ。
(5) とする。 がある実数 を用いて の形になるような、長さ のベクトルの組 を つ求めよ。またこのときの を答えよ。
Kai
(1)
定義より、 である。 これを移項すると、
となる。ここで、 はベクトルの内積であり、実数のスカラー値である。 したがって、 とおけば、
と書けることが示された。
English:
By definition, . Rearranging this equation yields:
Here, is the inner product of two vectors, which evaluates to a real scalar. Therefore, by letting , we can express this as:
This completes the proof.
(2)
を計算する。 まず、 の転置は であり、 は対称行列である。 次に、 を計算すると、
仮定より 、すなわち であるため、
となり、 は直交行列であることがわかる。 ゆえに、 となる。 ノルムは非負であるため、 が示された。
English:
Calculate . First, note that , meaning is a symmetric matrix. Next, we calculate :
By assumption, , which means . Thus:
This shows is an orthogonal matrix. Therefore, . Since norms are non-negative, it follows that .
(3)
(2) より であるため、 ならば 、すなわち である。 (1) より であり、 は長さ 1 のベクトルであるため、 のとき、 は と平行な単位ベクトルとなる。すなわち、 である。 以下の3つの場合に分けて求める。
(i) の場合: となるため、公式に代入して、
(ii) の場合:
- のとき、 となる。このとき 。ゆえに を満たす任意の単位ベクトル (ただし )。
- のとき、 となるため、。
(iii) の場合: となり、。 は常に成り立つため、任意の単位ベクトル が解となる。
English:
From (2), . If , then , which implies . From (1), . Since is a unit vector, when , must be a unit vector parallel to . Thus, . We find all solutions by considering three cases:
(i) If : Here, . Substituting , we get:
(ii) If for :
- For , we have . This gives . Hence, any unit vector with is a solution: (where ).
- For , we have . Hence, .
(iii) If : Here and . Since holds trivially, any unit vector is a solution.
(4)
とする。(1) より、
である。これにより、 の第1成分は でなければならない。 また より、 となるため、 である。
(i) の場合(すなわち または ): は を正規化したものになるため、
(ただし )。
(ii) の場合(すなわち かつ ): となる。(3) と同様に 。 これと を満たす任意の単位ベクトル が解となる。
English:
Let . From (1), we have:
This implies that the first component of must be . Additionally, from , we get , which gives .
(i) If (i.e., or ): is obtained by normalizing :
(where ).
(ii) If (i.e., and ): Here . Similar to (3), . Any unit vector satisfying this equation and is a solution.
(5)
この問題は、ハウスホルダー変換を用いて行列 の QR分解を行うプロセスに相当する。
ステップ1:行列 の第1列目を変換する を求める の第1列 を、(3) の結果を利用して の形に変換する。 より と選ぶと、 となる。 公式より、
このとき、 を計算すると以下のようになる(これは1行目と3行目を入れ替える置換行列となる)。
ステップ2: の第2列目を変換する を求める の第2列 を、第1成分を変えずに の形に変換する。これは (4) に対応する。 とし、 と選ぶと となる。 公式より、
このとき、 を計算すると以下のようになる(これは2行目と3行目を入れ替える置換行列となる)。
最後に を計算する。
これは指定された上三角行列の形を満たしている。
解答:
English:
This problem corresponds to the process of QR decomposition of matrix using Householder transformations.
Step 1: Find to transform the first column of We transform the first column of , , into the form using the method from (3). Since , we can choose , giving . Using the formula:
Calculating , we get a permutation matrix that swaps the 1st and 3rd rows:
Step 2: Find to transform the second column of Next, we transform the second column of , which is , into without changing the first component, using the method from (4). Here . Choosing gives . Using the formula:
Calculating , we get another permutation matrix that swaps the 2nd and 3rd rows:
Finally, we calculate :
This is exactly in the desired upper triangular form.
Final Answer:
東京大学 新領域創成科学研究科 メディカル情報生命専攻 2024年8月実施 問題7
Description
以下で は 行 列实数値行列の集合を表すものとする。 正則行列 の特異値分解は以下で与えられる ()。
ここで、 は をみたし、 は対角行列でその対角成分は を満たす。ただし、 は行列 の転置を表し、 は単位行列である。
のランク 近似 を以下で定義する ()。
ここで、 は の最初の 列からなる行列であり、 である。 は以下の最適化问题の一つの解 を与えることが知られている。
ただし、 である。 以下の問いに導出も含めて答えよ。
(1) の特異値分解を求めよ。
(2) とするとき、 を示せ。
(3) 次の最適化問題の解を求めよ。
(4) 次の最適化問題の解を求めよ。
(5) を用いて と書けるとする。次の最適化問題の解を求めよ。
Kai
(1)
定義より、 であり、、 を満たす。
まず、 について計算する。
は対角行列であるため であり、 より、
これが のコンパクト特異値分解(あるいは固有値分解)の形である。 行列としての完全な特異値分解で表すと、直交行列 を用いて以下のようになる。
同様に、 について計算する。
より、
完全な特異値分解で表すと、直交行列 を用いて以下のようになる。
English: By definition, , satisfying and .
First, we calculate :
Since is a diagonal matrix, . Using , we have:
This is the compact SVD (or eigenvalue decomposition) of . As a full SVD for an matrix using the orthogonal matrix , it is written as:
Similarly, calculating :
Using , we have:
As a full SVD using the orthogonal matrix , it is written as:
(2)
および を左辺に代入して計算する。
および であるため、
以上より、 が示された。
English: Substitute and into the left side:
Since and :
Thus, is proven.
(3)
とおくと、 であるため は階数 の直交射影行列である。 目標は を最小化することである。 は行列 の列空間を が張る 次元部分空間に射影したものであり、 である。
エッカート・ヤング・ミルスキーの定理(Eckart-Young-Mirsky Theorem)より、 を満たす行列 の中で を最小化するものは である。 したがって、 を満たす を見つければよい。
行列 に対して を計算すると、
となる( は の から 列目)。 よって、 の列ベクトルが の列ベクトルと同じ空間を張ればよい。 解は、任意の直交行列 ()を用いて以下のように表される。 解: (最も基本的な解は )
English: Let . Since , is an orthogonal projection matrix of rank . The objective is to minimize . is the projection of the column space of onto the -dimensional subspace spanned by , ensuring .
By the Eckart-Young-Mirsky Theorem, the matrix that minimizes subject to is . Thus, we need to find such that .
Calculating for , we get:
(where represents columns to of ). Therefore, the column space of must span the same space as the columns of . The solution, using any orthogonal matrix (), is expressed as: Solution: (The most basic solution is )
(4)
であり、これは固有値 を持つ対称行列である。 最適化問題は subject to となる。
Ky Fanの定理(またはRayleigh-Ritzの定理の拡張)より、正規直交系を列に持つ行列 に対する の最大値は、対称行列 の上位 個の固有値の和(この場合は )に等しい。 この最大値は、 の列ベクトルが の上位 個の固有値に対応する固有空間(主部分空間)を張るときに達成される。
の上位 個の固有値に対応する固有ベクトルは、行列 の最初の 列、すなわち である。 したがって、 は と同じ空間を張る正規直交行列であればよい。 解: ( は任意の直交行列)
English: , which is a symmetric matrix with eigenvalues . The optimization problem is subject to .
By Ky Fan’s Theorem (or the extended Rayleigh-Ritz theorem), the maximum of for an orthonormal matrix is the sum of the largest eigenvalues of the symmetric matrix (in this case, ). This maximum is achieved when the column vectors of span the eigenspace (principal subspace) corresponding to the largest eigenvalues of .
The eigenvectors corresponding to the largest eigenvalues of are the first columns of , which is . Therefore, must be an orthonormal matrix spanning the same space as . Solution: (where is an arbitrary orthogonal matrix)
(5)
正則行列 が と表されるため、 および も正則行列(逆行列を持つ)である。 最適化する目的関数は である。
と定義する。 が正則であるため、任意の行列 に対して が成り立つ。 したがって、条件 は と同値になる。 問題は以下のように書き換えられる。
エッカート・ヤング・ミルスキーの定理より、この最適化問題の解は である。 元の変数 に戻すと、 を満たす が求める解となる。 は正則であるため、両辺に左から 、右から を掛ける。 解:
English: Since the regular (invertible) matrix is written as , the matrices and must also be regular (invertible). The objective function to be optimized is .
Let . Because and are invertible, holds for any matrix . Therefore, the condition is completely equivalent to . The problem can be rewritten as:
By the Eckart-Young-Mirsky Theorem, the solution to this optimization problem is . Reverting to the original variable , the desired solution satisfies . Since and are invertible, we multiply by on the left and on the right. Solution: