network representation learning with rich text information

时间仓促,没有特别仔细的看(之后再更新)

论文的成果有两点:

  1. 证明deepwalk其实就等价于matrix factorization(DW可以用MF表示)

论文笔记:Network Representation Learning with Rich Text Information
论文笔记:Network Representation Learning with Rich Text Information
其中,W矩阵是在skip-gram中中心词的表达,H是上下文的表达。
M在使用softmax的时候是log(词对(vi,ci)出现的次数/vi出现的次数)
2. 对网络进行分解,变成三个矩阵相乘,其中的一部分是text information
论文笔记:Network Representation Learning with Rich Text Information
其中的T表示text information矩阵
M与1中的M一样,HT是1中的H
学习的优化函数:
论文笔记:Network Representation Learning with Rich Text Information

相关文章:

  • 2022-01-10
  • 2021-06-12
  • 2021-12-12
  • 2021-05-10
  • 2021-08-04
  • 2021-04-18
  • 2021-12-07
  • 2021-12-15
猜你喜欢
  • 2021-10-12
  • 2021-09-10
  • 2021-08-29
  • 2021-04-15
  • 2021-09-19
  • 2021-07-03
  • 2021-04-19
相关资源
相似解决方案