多示例学习(multi-instance learning)的概念。在此类学习中,训练集由若干个具有概念标记的包(bag)组成,每个包包含若干没有概念标记的示例。若一个包中至少有一个正例,则该包被标记为正(positive),若一个包中所有示例都是反例,则该包被标记为反(negative)。通过对训练包的学习,希望学习系统尽可能正确地对训练集之外的包的概念标记进行预测,也就是说预测集也是包,对包打上正或负的标签
                     多示例学习---周志华
多标签学习:简单举个例子,一部电影即属惊悚片又属恐怖片,也就是说一个样例可以有多个标签
http://blog.csdn.net/myproudcodelife/article/details/52706210
知乎上给出的multi-label的解释,并另附了很多资料,不妨一看
https://www.zhihu.com/question/35486862
因为该篇文章是多示例多标签的.所以此处先给出基本概念
[EMNLP2017]Adversarial Training for Relation Extraction

[EMNLP2017]Adversarial Training for Relation Extraction
[EMNLP2017]Adversarial Training for Relation Extraction
Adversarial Training增加了模型的鲁棒性并且提高了泛化能力
————————adversarial training————————–
adversarial training 通过对训练数据产生对抗噪声来规范分类算法
由Figure 1, wi(j)是句子xi的中第j个词
      vi(j)是赌赢的词wi(j)的word_embedding
      ei(j)是针对词wi(j)的perturbations, 语料中每个词对应一个ei(j), 其是随模型训练而得.
不同于以往的神经网络目标函数,adversarial training的目标函数是公式 (2),由于公式 (2) 中term eadv是由公式 (3) 计算所得
[EMNLP2017]Adversarial Training for Relation Extraction
由于公式 (3) 难以计算,所以用公式(4)近似所得
[EMNLP2017]Adversarial Training for Relation Extraction

这里我们着重给出公式 (4) 中 g 的计算:
假设当前句子是x, 句中每个词对应的word_embedding为{v1, v2, …, vi, …., vn}
L(X, θ^) 是当前句子所得的loss
g1 = L(X,θ^)v1
...
gi = L(X,θ^)vi

gn = L(X,θ^)vn

g = {g1, …, gi, …, gn}, 其中 n 为句子的长度

相关文章:

  • 2022-12-23
  • 2021-12-04
  • 2021-05-21
  • 2021-06-09
  • 2022-01-19
  • 2022-12-23
  • 2021-06-28
  • 2021-06-26
猜你喜欢
  • 2021-09-17
  • 2021-09-27
  • 2021-05-07
  • 2021-12-07
  • 2021-06-25
  • 2021-12-18
  • 2021-04-03
相关资源
相似解决方案