2.1 标量、向量、矩阵
标量:单独的数
向量:数列
矩阵:二维数组
张量:超过二维的数组
矩阵加法:对应元素相加(矩阵大小一致)
标量和矩阵相加相乘:标量与矩阵的每个元素都相加相乘
广播:允许向量和矩阵相加,即向量和矩阵的每一行相加(行大小相同)

2.2 矩阵和向量相乘 《花书》2.1~2.12线性代数
2.3 单位矩阵和逆矩阵
单位矩阵:主对角元素为1
矩阵的逆A-1:A乘A-1为单位阵

2.4 线性相关和生成子空间
线性相关:一组向量中存在一个向量可以表示成其他向量的线性组合(唯一解或无限多解)
线性无关:任一向量都不能表示成其他向量的线性组合(无解)
生成子空间:一组向量的生成子空间是原始向量线性组合后能达到的点的集合
可逆的条件:方阵,并且所有列向量线性无关
奇异:列向量相关的方阵(当且仅当含有0特征值)

2.5 范数
范数:衡量向量的大小
《花书》2.1~2.12线性代数
2.6 特殊类型的矩阵及向量
对角矩阵:只有主对角线非零(diag(v)对角元素由向量v中元素组成)
对称矩阵:转置和自己相同的矩阵
《花书》2.1~2.12线性代数
2.7 特征分解
特征分解:使用最广的矩阵分解之一,即将矩阵分解成一组特征值和特征向量
方阵A的特征向量是指与A相乘后相当于对改向量进项缩放Av=λv,其中λ的特征值
正定:所有特征值都是正数
《花书》2.1~2.12线性代数
2.8 奇异值分解
奇异值分解(SVD):将矩阵分解为奇异向量和奇异值,每个实数矩阵都有一个奇异值分解,但不一定有特征分解。《花书》2.1~2.12线性代数
2.9 Moore-Penrose伪逆
《花书》2.1~2.12线性代数
2.10 迹运算
迹返回主对角元素的和
2.11 行列式
det(A):等于矩阵特征值的乘积

2.12 实力:主成分分析
主成分分析(PCA)是一个简单的机器学习算法,可以通过基础线性代数知识推导

相关文章: