Artificial intelligence 在本体中审查二手知识

Artificial intelligence 在本体中审查二手知识,artificial-intelligence,machine-learning,ontology,Artificial Intelligence,Machine Learning,Ontology,如何将客观确定性分配给本体中不同用户断言的语句 例如,考虑用户A断言“鲍伯的帽子是蓝色的”,而用户B断言“鲍伯的帽子是红色的”。您将如何确定: 用户A和用户B指的是名为Bob的不同人员,可能是正确的,也可能是错误的 两个用户都指同一个人,但用户A是对的,用户B是错的(反之亦然) 两个用户都指的是同一个人,但用户A是对的,用户B在撒谎(反之亦然) 两个用户指的是同一个人,两个用法要么是错误的,要么是谎言 我看到的主要困难是本体无法获得第一手数据(例如,它无法询问Bob他的帽子是什么颜色) 我意识到

如何将客观确定性分配给本体中不同用户断言的语句

例如,考虑用户A断言“鲍伯的帽子是蓝色的”,而用户B断言“鲍伯的帽子是红色的”。您将如何确定:

  • 用户A和用户B指的是名为Bob的不同人员,可能是正确的,也可能是错误的
  • 两个用户都指同一个人,但用户A是对的,用户B是错的(反之亦然)
  • 两个用户都指的是同一个人,但用户A是对的,用户B在撒谎(反之亦然)
  • 两个用户指的是同一个人,两个用法要么是错误的,要么是谎言
  • 我看到的主要困难是本体无法获得第一手数据(例如,它无法询问Bob他的帽子是什么颜色)


    我意识到可能没有完全客观的方法来解决这个问题。有什么可以采用的启发式方法吗?这个问题有正式名称吗?

    我听说这种事情被称为信息融合,反映了信息融合的思想。我对它了解不多,但似乎有


    我还要在这里增加另一个困难,区分客观和主观信息。如果用户A说“Bob是个好人”,而用户B说“Bob不是个好人”,那么在断言看似相反的陈述时,他们都是对的。

    步骤1:做出一些假设。否则,你就没有任何依据。一个可能的假设是,“如果bob的帽子是红色的,那么90%的用户A会说他的帽子是红色的。”


    第二步:应用相关数学。要将条件概率与其逆概率联系起来(即,根据我提出的假设,询问bob的帽子是红色的,知道a说了什么的概率),请使用。

    我不是这一领域的专家,但我在本体论和语义网方面做过一些不确定的工作。当然,有一些解决这个问题的方法与语义网无关,但我的知识就到此为止

    我觉得与你的问题有关的两个问题是和。上述语句的正式表示可以在(资源描述框架)中发布

    如果我将语句SS“Bob的帽子是蓝色/红色”转换为三元组,这将是:

    事实1:

    • 一个人
    • X hasName“Bob”
    • X具有H1
    • 哈伊萨帽子
    • H1是蓝色的
    事实2:

    • Y是一个人
    • 你的名字叫“鲍勃”
    • Y具有H2
    • H2伊萨帽
    • 红色
    这里的问题是X、Y、H1和H2是资源,它们可能相同,也可能不同。因此,在您的示例中,X和Y是同一个人还是不同的人是未知的,如果没有进一步的信息,您将无法知道。(帽子也是如此。)

    然而,问题更复杂,因为用户A和B只是陈述了这些事情,所以它们不是“真实的”事实。RDF提供了解决这个问题的方法,但我不会在这里完整地写下来,它太长了。基本上,您要做的是在上述每个语句中添加一个“UserA statesThat(…)”

    如果你掌握了所有这些,你就可以开始推理了。在大学里,我们曾经用过这种东西,但那是一个旧版本,我不熟悉现在的版本

    当然,您也可以在不使用RDF的情况下完成这些工作,例如,在LISP中


    希望能有所帮助。

    +1使用物化。在之前的工作中,我们使用物化来提供断言的谁、什么、何时和为什么,以帮助找出四个歧义。在这种情况下,我们将提供关心Bob的最终用户来决定用户A或B是否更值得信任。还可以使用具体化来记录用户C对每个断言的信心。