知识图谱补全

基于知识表示的方法

知识表示学习:对知识图谱中的实体和关系学习其低维度的嵌入式表示。

常见的知识表示学习方法:主要是以 TransE 法及其变种为核心,针对空间映射等场景做的改进

基于实体和关系的表示对缺失三元组进行预测;

利用实体描述信息,可以解决开放域实体补全的问题;

基于路径查找的方法

可使用基于路径查找的方法来处理这类多步推理问题。

传统的路径查找方法主要是 PRA 方法(Path Ranking Algorithm);但是这种方法对于包含较大规模的知识图谱来说,会由于路径数量爆炸式增长,导致特征空间急剧膨胀

可以尝试用 embedding 的方式表示关系,对关系进行泛化,并基于此对知识的补全进行建模,以缓解路径数量过多导致的特征空间膨胀问题。

  • 给定实体对集合,利用 PRA 查找一定数量的路径;
  • 路径计算过程中加入实体类型信息(减少长尾实体影响);
  • 使用 RNN 沿着路径进行向量化建模;RNN 模型参数在不同关系之间共享;
  • 通过比较路径向量与待预测关系向量间的关联度来进行关系补全。

基于强化学习的方法

前面提到的两种方法,仍然存在若干的问题:

  • 需要基于 random walk 来查找路径;
  • 而 random walk 算法在离散空间中运行,难以评价知识图谱中相似的实体和关系;
  • 超级结点可能影响 random walk 算法运行速度。

强化学习方法:

  • 在连续空间中进行路径搜索;
  • 通过引入多种奖励函数,使得路径查找更加灵活、可控。

DeepPath

DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

xwhan/DeepPath

/images/papers/paper7.png

  • 任务:查找 Band of Brothers 和 English 之间的关系。
  • 路径起点:Band of Brothers
  • 状态:实体中的 embedding
  • 动作:图谱中的关系;
  • 奖励
    • Binary,是否到达终点
    • 路径长度
    • 路径多样性
  • 策略网络:使用全连接网络。

DeepPath 方法仍然存在一些缺陷:知识图谱本身的不完善很可能对路径查找造成影响。

Collaborative Policy Learning for Open Knowledge Graph Reasoning

在路径查找过程中,通过抽取关系,将缺失的路径补全。