Node Embedding四步骤

根据在原空间中想求的相似关系,定义相似函数,但是有一个问题,如果我们已经知道在原空间中的相似关系,为什么还要映射到欧氏空间中?
答:为了更适应深度学习等的处理方法,且原数据多为结构化数据,且维数过多。
相似函数是最重要的!一般根据任务来选择设计。
网络表示初学习--节点嵌入 node embedding

网络表示初学习--节点嵌入 node embedding
编码方式有两种:浅层(node2vec,DeepWalk,LINE…其实就是一个查询表,无法得到全局最优的结果)和深层。

浅层嵌入方式(node2vec,DeepWalk,LINE,struc2vec)的区别是原始网络的相似性的定义不同(是否相连,是否共享许多邻居,是否有相似的本土网络结构.etc.)

相似性三定义:
1、基于邻接矩阵网络表示初学习--节点嵌入 node embedding
这一部分需要好好学习。
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
2、多跳
网络表示初学习--节点嵌入 node embedding
k如何确定?
求出1、2、3等后集体构成z
网络表示初学习--节点嵌入 node embedding
边与边乘积求和
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
3、随机游走

网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
网络表示初学习--节点嵌入 node embedding
softmax可放大相似性
网络表示初学习--节点嵌入 node embedding

相关文章: