总述:

像是陈年玉米,又长又难嚼还没啥营养。

大抵就是他收集了3K诊所问诊的录音,然后在每一段录音的基础上识别出问诊过程中涉及到了哪些症状,以及推断这些症状是否出现在病人身上。但是其实模型very simple,就是一个lstm+CRF做tag的任务QAQ,不过实验室做了挺多的,类似于transformer的encoder和lstm的encoder,还有加权和不加权的eval metric, 以及是否推断这些症状是否出现,seq-2-seq模型和他们模型的想过对比,直接用语音识别得到的文本和人工手写得到的稿子训练做对比。。。有点没事找事做的感觉。可能这篇文章有点用的就是数据集了。最后,可惜数据集不开源。“自己搭舞台,写剧本,自己唱戏,我唱的好不好你们都只能看着”  --google

 

模型:

[NLU] Extracting Symptoms and their Status from Clinical Conversations

这就是他所提出的模型呢,前面是一层LSTM+CRF 序列标注,先标注成BIO的形式,然后对每一个BIii实体分别做两个预测,一个预测这个症状的名字,一个预测有没有出现过。

一句话总结:

对话系统在医疗层次的研究,关注在对话理解,症状预测,推理等方面。

ps:

摘要里面的curriculum learning确实把我吓到了。然而:(来源知乎)

[NLU] Extracting Symptoms and their Status from Clinical Conversations

我没看清楚文章有啥价值,也许是我水平还不够。 

相关文章: