Artificial intelligence 在本体中审查二手知识
如何将客观确定性分配给本体中不同用户断言的语句 例如,考虑用户A断言“鲍伯的帽子是蓝色的”,而用户B断言“鲍伯的帽子是红色的”。您将如何确定:Artificial intelligence 在本体中审查二手知识,artificial-intelligence,machine-learning,ontology,Artificial Intelligence,Machine Learning,Ontology,如何将客观确定性分配给本体中不同用户断言的语句 例如,考虑用户A断言“鲍伯的帽子是蓝色的”,而用户B断言“鲍伯的帽子是红色的”。您将如何确定: 用户A和用户B指的是名为Bob的不同人员,可能是正确的,也可能是错误的 两个用户都指同一个人,但用户A是对的,用户B是错的(反之亦然) 两个用户都指的是同一个人,但用户A是对的,用户B在撒谎(反之亦然) 两个用户指的是同一个人,两个用法要么是错误的,要么是谎言 我看到的主要困难是本体无法获得第一手数据(例如,它无法询问Bob他的帽子是什么颜色) 我意识到
我意识到可能没有完全客观的方法来解决这个问题。有什么可以采用的启发式方法吗?这个问题有正式名称吗?我听说这种事情被称为信息融合,反映了信息融合的思想。我对它了解不多,但似乎有
我还要在这里增加另一个困难,区分客观和主观信息。如果用户A说“Bob是个好人”,而用户B说“Bob不是个好人”,那么在断言看似相反的陈述时,他们都是对的。步骤1:做出一些假设。否则,你就没有任何依据。一个可能的假设是,“如果bob的帽子是红色的,那么90%的用户A会说他的帽子是红色的。”
第二步:应用相关数学。要将条件概率与其逆概率联系起来(即,根据我提出的假设,询问bob的帽子是红色的,知道a说了什么的概率),请使用。我不是这一领域的专家,但我在本体论和语义网方面做过一些不确定的工作。当然,有一些解决这个问题的方法与语义网无关,但我的知识就到此为止 我觉得与你的问题有关的两个问题是和。上述语句的正式表示可以在(资源描述框架)中发布 如果我将语句SS“Bob的帽子是蓝色/红色”转换为三元组,这将是: 事实1:
- 一个人
- X hasName“Bob”
- X具有H1
- 哈伊萨帽子
- H1是蓝色的
- Y是一个人
- 你的名字叫“鲍勃”
- Y具有H2
- H2伊萨帽
- 红色
希望能有所帮助。+1使用物化。在之前的工作中,我们使用物化来提供断言的谁、什么、何时和为什么,以帮助找出四个歧义。在这种情况下,我们将提供关心Bob的最终用户来决定用户A或B是否更值得信任。还可以使用具体化来记录用户C对每个断言的信心。