成功测试
成功测试

您现在的位置: 成功测试简介_成功测试分数 > 成功测试分数 > 新神经模型检测关键短语,生成问题,可评估

新神经模型检测关键短语,生成问题,可评估

发布时间:2025/2/25 11:39:17   点击数:
编者按:蒙特利尔学习算法研究所的SandeepSubramanian、SaizhengZhang和微软旗下研究性深度学习创业公司Maluuba的TongWang、XingdiYuan、AdamTrischler设计了这样一个神经模型,该模型可以识别文章中有趣的关键短语,并且生成问题,可用于教育中,评估学生的阅读理解能力。

摘要我们提出了几个安排在两个阶段框架中的神经模型来解决文档中的问题生成。首先,我们使用在问答语料库上训练的神经模型来估计文档中“有趣”答案的概率。然后用预测的关键短语作为回答条件来处理序列到序列的问题生成模型。根据经验,我们的神经关键词检测模型显著优于实体标签基线系统。我们证明问题生成器从提取的关键短语中提出了优质的自然语言问题,所产生的问题和答案可用于评估教育环境中的阅读理解能力。

一、简介许多教育应用都可以从自动问题生成中受益,包括词汇评估,写作支持和阅读理解的评估。在某些层面制定测试某些技能的问题需要耗费大量的人力物力,如大量开放的在线课程(MOOC)等。他们的应用程序,大多数自动问题生成的现有模型依赖于基于规则的方法,同时在不同的域或写入样式上无法很好地扩展。为了解决这种局限,我们列举并比较了几种自动问题生成的端对端训练神经模型。我们的目标是解决阅读理解的评估问题!在这个领域中,问题生成通常涉及两个相互关联的组件:第一个,在一个段落或文档中识别有趣的实体或事件(关键短语)的系统;第二个,一个问题生成器,用自然语言构建问题,专门询问给定的关键短语。因此,关键词作为“正确”生成问题的答案。这个步骤确保我们可以评估学生的表现以防先入为主。我们制定密钥短语检测,以模拟给定文档上的潜在答案的概率,即P(a

d)。在问答成功的启发下,我们设计了一个序列到序列模型,可以生成一组关键短语边界。该模型能够灵活地从文档中选择任意数量的关键短语。为了教导它将高概率定义成“有趣”这一概念,我们从大规模的大众来源的问答数据集(SQuAD)中选择人选的答案进行训练。因此,我们采用纯数据驱动的方法来定义“有趣”这个概念,它的前提是,人们倾向于选择自己理解范畴内的感兴趣的实体或事件。如果这个前提是正确的,那么大量的群体问答数据集可用于学习人类读者感兴趣的关键短语模型。给出一组提取的关键短语,我们通过对给定的问答对的条件概率来模拟问题生成,即P(q

a,d)。为此,我们使用了一个序列到序列模型和指针——softmax机制。该组件在数据集里,通过最大化问题的可能性对SQuAD进行了训练。实验表明,我们提出的关键词检测模型优于两个基线系统,而且优势明显。我们提供量化结果,并提供文件中的问答对的定性实例来证明结论。二、相关工作自动问题生成系统通常用于减轻(甚至消除)人类生成问题的负担,以评估阅读理解。这些系统中已经采用了各种NLP技术来提高生成质量,包括解析,语义角色标注以及WordNet等词典资源的使用。然而,大多数提出的方法都采用简单的基于规则的技术,例如使用模板或语法转换启发式,如主题-辅助倒置。而这些技术可能不足以捕捉自然语言问题的多样性和高方差。为了解决这一局限,近来已经有人提出了端对端可维护的神经模型,用于视觉和语言中的问题生成。对于后者,XinyaDu,JunruShao和ClaireCardie()使用序列到序列模型,其中包含从编码器状态导出的注意机制。XingdiYuan等人()提出了类似的架构,另外通过策略梯度技术改进了模型性能。然而,与问题生成高度相关,但较少被探索的方面是确定给定文档的哪些部分是重要的,或者是提出问题的有趣的部分。现有的研究将这一任务作为对群体资源的帮助。Heilman和Smith要求人群对计算机自然语言问题的可接受性作为测验问题,Becker等征求了文本块的质量等级作为Cloze式问题的潜在差距。这些研究与我们提出的工作密切相关,通过建模的共同目标给定文档的关键短语的分布。主要区别是,以前的研究开始于一个规定的候选名单,这可能会显著地偏离分配估计。相比之下,我们采用最初设计用于问答的数据集,人群大概倾向于选择最感兴趣的实体或事件。我们假设从数据直接学习的结果分布更有可能真正反映答案的重要性和适当性。

三、模型描述3.1关键短语检测在本节中,我们将描述一个简单的基线,以及两个用于从文档中提取关键短语(答案)的神经模型。实体标记基线我们的基线模型(ENT)预测所有被spaCy(

转载请注明:http://www.81guangchang.com/cgfs/20290.html

网站简介 | 发布优势 | 服务条款 | 隐私保护 | 广告合作 | 合作伙伴 | 版权申明 | 网站地图

当前时间: