总述:
像是陈年玉米,又长又难嚼还没啥营养。
大抵就是他收集了3K诊所问诊的录音,然后在每一段录音的基础上识别出问诊过程中涉及到了哪些症状,以及推断这些症状是否出现在病人身上。但是其实模型very simple,就是一个lstm+CRF做tag的任务QAQ,不过实验室做了挺多的,类似于transformer的encoder和lstm的encoder,还有加权和不加权的eval metric, 以及是否推断这些症状是否出现,seq-2-seq模型和他们模型的想过对比,直接用语音识别得到的文本和人工手写得到的稿子训练做对比。。。有点没事找事做的感觉。可能这篇文章有点用的就是数据集了。最后,可惜数据集不开源。“自己搭舞台,写剧本,自己唱戏,我唱的好不好你们都只能看着” --google
模型:
这就是他所提出的模型呢,前面是一层LSTM+CRF 序列标注,先标注成BIO的形式,然后对每一个BIii实体分别做两个预测,一个预测这个症状的名字,一个预测有没有出现过。
一句话总结:
对话系统在医疗层次的研究,关注在对话理解,症状预测,推理等方面。
ps:
摘要里面的curriculum learning确实把我吓到了。然而:(来源知乎)
我没看清楚文章有啥价值,也许是我水平还不够。