时间:2018.06
作者:Travis Ebesu, Bin Shen, Yi Fang
Abstract:
memory module: stacking multiple memory modules yield deeper architectures capturing increasingly complex user-item relations
neural attention mechanism: to learn a user-item specific neighborhood
Model Structure:
User Embedding
对于预测用户u对商品i的评分。首先,得到所有对物品i有评分的用户集合,N(i),然后用公式(1)计算用户u、N(i)中每个用户之间的相似性
Neighborhood Attention
,c_v is another embedding vector which is called external memory in the original memory network framework
学习一个neighborhood里的user权重,就可以知道哪些user更加相似
Output Module
括号中的第一项是用户的记和物品的记忆
进行的 element-wise 相乘操作,这相当于矩阵分解的思想,即考虑了全局的信息。第二项相当于是按照基于邻域的思路得到的一个输出向量,即考虑了局部的相关用户的信息。最终经过**函数
和输出层得到最终的预测评分。
, U, W, v, b are the parameters to be learned
Multiple Hops
CMN模型可以扩展为多层结构。在每一层,记忆是不变的,变化的主要是权重向量,公式如下:
其中,
Parameter Estimating
采取pair-wise的方式,训练时每次输入一个正样本得到一个评分,输入一个负样本得到一个评分,我们希望正样本的得分远大于负样本的得分。这种形式我们称为Bayesian Personalized Ranking (BPR) optimization criterion,
其中,σ(x)=1/(1+exp(−x))
Relation to Existing Model
latent factor model
neighborhood-based similarity model: the memory module
hybrid model
Evaluation
Reference:
https://blog.csdn.net/qq_40006058/article/details/90018931