自然语言处理团队组织2020级研究生第九组开展第二次研讨会
2020年10月24日星期六晚上18:30-21:30,NLP团队第九研讨小组以线下线上结合的方式在204办公室展开了第二次研究生研讨会。本次研讨会由曾碧卿教授线上组织,2019级研究生甘子邦线下主持,2020级研究生丁明浩,陈嘉涛,曾威分别进行了关于对话系统方面的文献汇报与研讨。会议期间,2019级研究生甘子邦与2020级研究生们就论文细节、创新点、未来方向几个方面进行了提问讨论和建议指导。
研讨主题内容主要基于以下具体指定内容进行:
1. 《Modeling Multi-turn Conversation with Deep Utterance Aggregation》
多回合会话理解是构建智能对话系统的一大挑战。本文主要研究基于检索的多话轮会话反应匹配,其相关工作只是将会话话语串联起来,而忽略了先前话语之间的交互作用。在本文中,我们使用一个提出的深层话语聚合模型将先前的话语表达到上下文中,以形成一个细粒度的上下文表示。具体来说,首先引入自匹配注意来路由每个话语中的重要信息。然后,该模型对每一个精炼的话语进行一个反应匹配,经过注意转向聚合得到最终的匹配分数。实验结果表明,我们的模型在三个多回合会话基准测试(包括一个新引入的电子商务对话语料库)上优于现有的方法。
2. 《Context-Sensitive Generation of Open-Domain Conversational Responses》
尽管已有的关于单轮会话生成的研究取得了成功,但连贯性角度考虑,人类会话实际上是一个上下文敏感的过程。受现有研究的启发,本文提出了基于静态和动态注意的开放域会话响应生成方法。在两个公共数据集上的实验结果表明,基于静态注意的方法在自动评价和人工评价方面都优于所有的基线。
3. 《Hierarchical Variational Memory Network for Dialogue Generation》
对话系统帮助各种真实的应用程序以智能自然的方式与人类交互。在对话系统中,对话生成的任务是将先前的话语作为语境生成话语。在众多的对话生成方法中,端到端神经生成模型受到越来越多的关注。这些端到端的神经生成模型能够用统一的神经编解码网络结构生成自然发音的句子。端到端结构在输入上下文中按顺序编码每个字,并在解码过程中逐字确定地生成响应。然而,缺乏变化和有限的能力捕捉长期依赖的话语仍然是挑战现有的方法。本文提出了一种新的分层变分记忆网络(HVMN),它将分层结构和变分记忆网络加入到神经编解码网络中。通过模拟人与人之间的对话,我们提出的方法可以捕捉对话跟踪过程中的高层抽象变化和长期记忆,从而使相关对话历史的随机存取成为可能。在三个大型真实世界数据集上进行的大量实验验证了我们提出的模型相对于最先进的对话生成基线的显著改进。
以下为第九研讨小组部分研讨截图:
撰稿:曾威
审稿:丁美荣