0%

05线性代数

05线性代数

image-20231208123851480

5.1线性代数

标量

  • 简单操作

  • 长度

向量

  • 简单操作

  • 长度

【举例】

$c = a + b$

image-20231208221234555

$c = a * b$

image-20231208221304693

  • 点乘
  • 正交

image-20231208221644639

矩阵

  • 简单操作
  • 乘法(矩阵乘以向量)

矩阵乘以向量

直观上理解矩阵乘法:向量可以看作空间,矩阵可以看作是特定的工具,向量与特定的矩阵相乘后,将会使得向量变得扭曲,也就是变换到另一个空间中

直观上理解矩阵乘法

  • 范数
  • 取决于如何衡量 b 和 c的长度
  • 常见的范数
  • 矩阵范数:最小的满足的上面公式的值
  • Frobenius 范数

特殊矩阵

  • 对称和反对称

image-20231208223352977

  • 正定

image-20231208223522068

  • 正交矩阵
    • 所有行都相互正交
    • 所有行都有单位长度 $u$
    • 可以写成
  • 置换矩阵
  • 置换矩阵是正交矩阵
  • 特征向量和特征值
    • 不被矩阵改变方向的向量$x$(但长度可能会改变

image-20231208224252581

  • 对称矩阵总是可以找到特征向量

5.2线性代数实现

标量由只有一个元素的张量表示

image-20231209152426875

你可以将向量视为标量值组成的列表

image-20231209152539663

通过张量的索引来访问任一元素

image-20231209152604605

访问张量的长度

image-20231209152703768

只有一个轴的张量,形状只有一个元素

image-20231209152726497

通过指定两个分量 $m$ 和 $n$ 来创建一个形状 $m * n$ 的矩阵

image-20231209152855536

矩阵的转置

image-20231209152938567

对称矩阵(symmetric matrix)$A$ 等于其转置:$A = A^T$

image-20231209153046682

image-20231209153111807

就像向量是标量的推广,矩阵是向量的推广一样,我们可以构建具有更多轴的数据结构 代表2个具有3 * 4结构的矩阵的组合

image-20231209153215038

给定具有相同形状的任何两个张量,任何按元素二元运算的结果都将是相同形状的张量

image-20231209153448715

image-20231209153501138

两个矩阵的按元素的成绩称为 哈达玛积(Hadamard product)(数学符号)⊙

image-20231209153835936

image-20231209153850528

计算其元素的和

image-20231209153932420

表示任意形状张量的元素和

image-20231209154014998

指定求和汇总张量的轴

axis=0 意味着对 2 这一维度进行求和,剩下的两个维度留下来了。

image-20231209154251883

image-20231209154222362

axis=1 意味着对 5 这一维度进行求和,剩下的两个维度留下来了。

image-20231209154529821

也可以指定其中的多个维度进行求和,其余的维度留下来

image-20231209154709279

image-20231209154755666

下面解释一下是怎么按特定轴求和的

1
2
3
4
5
6
7
8
9
10
11
12
13
原始的tensor.size([2, 5, 4]), 一共是40个数
tensor([[[ 0, 1, 3, 4],
[ 5, 6, 7, 8],
[ 9, 10, 11, 12],
[13, 14, 15, 16],
[17, 18, 19, 20]],

[[21, 22, 23, 24],
[24, 25, 26, 27],
[28, 29, 30, 31],
[32, 33, 34, 35],
[36, 37, 38, 39]]])
按 axis=0 求和,也就是

一个与求和相关的量是 平均值(mean 或 average)

image-20231209162139075

计算总和或均值时保持轴数不变

image-20231209162248301

通过广播将 $A$ 除以 sum_A

image-20231209162431838

某个轴计算 $A$ 元素的累积总和

image-20231209162526414

点积是相同位置的按元素乘积的和4

image-20231209162702754

我们可以通过执行按元素乘法,然后进行求和来表示两个向量的点积

image-20231209162847916

矩阵向量积 $Ax$ 是一个长度为 $m$ 的列向量,其 $i^{th}$ 元素是点积 $a_i^Tx$

image-20231209163033727

我们可以将矩阵-矩阵乘法 $AB$ 看作是简单地执行 $m$ 次矩阵-向量积,并将结果拼接在一起,形成一个 $n * m$ 的矩阵

image-20231209163240282

$L_2$ 范数是向量元素平方和的平方根

image-20231209163429546

$L_1$ 范数,它表示为向量元素的绝对值之和:

image-20231209163603565

矩阵的 弗罗贝尼乌斯范数 (Frobenius norm) 是矩阵元素的平方和的平方根:

image-20231209163941729

5.3按特定轴求和

image-20231209164342978

5.4QA