图中的内容大概包括:
1.假设A为一个m*n的矩阵,证明的对称性和正定性,进而证明为对称正定矩阵,才可保证对角阵D的均为正数,才可以开根号。
2. SVD分解在神经网络中的应用,由200*100次变为(10*100 + 10*200)次,在实际工作中,性能影响不大(之后可继续finetune),但是参数量大大减少,有助于网络部署。
3. 在图像压缩中,最少可以将参数由m*n个减少到(m+n+1)个参数。
相关文章:
图中的内容大概包括:
1.假设A为一个m*n的矩阵,证明的对称性和正定性,进而证明为对称正定矩阵,才可保证对角阵D的均为正数,才可以开根号。
2. SVD分解在神经网络中的应用,由200*100次变为(10*100 + 10*200)次,在实际工作中,性能影响不大(之后可继续finetune),但是参数量大大减少,有助于网络部署。
3. 在图像压缩中,最少可以将参数由m*n个减少到(m+n+1)个参数。
相关文章: