作者信息
导读这两天看到了一篇文章,和我最近的一些思考契合,分享给大家。 知识图谱的数据一般来自于结构化数据或者采用信息抽取等技术挖掘非结构化文本数据构建而来,实体之间通过关系链接,能够很好的表达结构性知识。但是我们细想一下是不是缺少了点什么?通过相关技术抽取文本中的实体并将实体通过某种关系链接,确实能够简单干练的表达文本的干货信息,去除很多文本中的噪音数据,但是上下文信息呢,能够在结构化知识中表达或者包含嘛?显然是很难的。 今天给大家分享的文章内容就是在知识图谱的基础之上融合实体之间的上下文语意信息,文章来自于 Microsoft Cognitive Services Research Group。 一、背景知识常识推理(Commonsense Reasoning)在近些年变的越来越重要,已经逐步成为自然语言理解中一个非常重要的任务。 自18年 BERT 问世,以及后续的 BERT 相关变种,已经在自然语言理解任务中大放异彩,被多次证明非常有效,然而与结构化数据相比,文本表示在知识推理却效果有限。比如下图中的这句话,要想在预训练模型中学到这句话的内在语意,需要多个包含蒙娜丽莎和卢浮宫的文本,而在结构化知识中,两个实体之间存在 的关系,可以直接用于推理问答。所以出现了很多更聪明的预训练模型(预训练模型 + 知识图谱),比如 ERNIE、K-BERT、knowBERT、KEPLER-A等。 虽然知识图谱中具有结构化信息,能够描述实体之间的关系,但是同一个实体可能存在多个关系链接不同的实体,比如 ,存在多个实体连接,即使这样,我们或许很难识别出 是一幅画,因此,需要额外的信息来引导定义 是一幅画(如下图),并将这部分信息加入到预训练语言模型中一起学习,让模型学习到这部分的知识。 本篇文章的出发点就是在预训练模型中融合知识图谱实体的上下文信息,取名为 DEKCOR: DEscriptive Knowledge for COmmonsense Reasoning.
二、模型结构常识问答的目标:对于给定的问题 ,以及给定的候选答案 , , , ,从候选答案中选择正确的答案。 模型的整体结构图如下,主要包含三部分。 1、知识检索本文采用的知识图谱为 ,对于给定的 和 ,从图谱中获取与其相关的关系三元组,这里有两种情况:
2、上下文信息本文利用 在线词典获取实体的相关概念信息,比如 。 3、推理获取到相关的特征信息后,将问题、候选答案、实体描述信息以及三元组信息均作为 的输入信息,格式如下图。推理的时候在模型的最终输出层利用 权重加权以及 层获取每一个问答对的相关分数。 三、效果
总结本文在原有结构信息的基础之上融合实体的上下文信息,能够丰富知识图谱中的结构化知识,让预训练语言模型更上一层楼,在常识推理任务中取得了很好的效果。 参考资料
|
|