Logic AI:开放世界参考分辨率中的部分统一

Logic AI:开放世界参考分辨率中的部分统一,logic,artificial-intelligence,robotics,unification,uncertainty,Logic,Artificial Intelligence,Robotics,Unification,Uncertainty,在对描述对话表达式语义的谓词执行引用解析时,由于在开放世界中工作,我需要能够允许部分统一 例如,考虑下面的场景: 你面前有一个蓝色的盒子。 我们使用id3引用此蓝色框 一组谓词box(x)^blue(x)可以轻松解析为您知道的蓝色方框。进行此查询将返回3 一组谓词ball(x)^yellow(x)将无法解析任何内容。这很好 但是现在考虑球(x)^黄色(x)^ box(y)^蓝色(y)^后面(x,y)< /代码>,即,蓝色球后面的黄色球。 我们不知道黄色的球,但我们知道蓝色的盒子!当然,有可能在已

在对描述对话表达式语义的谓词执行引用解析时,由于在开放世界中工作,我需要能够允许部分统一

例如,考虑下面的场景:

你面前有一个蓝色的盒子。 我们使用id
3
引用此蓝色框

一组谓词
box(x)^blue(x)
可以轻松解析为您知道的蓝色方框。进行此查询将返回
3

一组谓词
ball(x)^yellow(x)
将无法解析任何内容。这很好

<>但是现在考虑<代码>球(x)^黄色(x)^ box(y)^蓝色(y)^后面(x,y)< /代码>,即,蓝色球后面的黄色球。

我们不知道黄色的球,但我们知道蓝色的盒子!当然,有可能在已知的盒子后面没有球,而另一个盒子正在被谈论。但我们很确定我们知道在谈论什么盒子

我在一个概率框架内工作,在这个框架中,我计算满足命题集的每一组绑定的概率;然后,引用解析过程返回最可能的统一绑定器/绑定集。不幸的是,当考虑(x,y)后面的
时,我的系统排除了
3
绑定到
y
的可能性,因为它不知道id为
3
的盒子后面有任何黄色球

是否有一种方法可以部分统一谓词,以便系统确定语句最可能的解析是
y/3 x/?
,即y绑定到3,而x的标识未知?

一个暂定解决方案(如果有人想到更好的…请这样说!)

在分析句子时,解析器可能能够确定某些实体比其他实体更有可能被固定。在这句话中,盒子比球更有可能被接地。在句子片段
国王的园丁的兄弟
中,最不可能知道的是兄弟,园丁的可能性更大,国王的可能性最大


如果这些信息反映在语义中或与语义一起提供,则它们可以通知一种启发式方法,在面对未解析的引用表达式时,尝试按照提供的顺序假设引用未知,直到引用成功解析。

在我看来,问题不在于谓词的部分统一。这是统一的一个常规部分,因为我们统一变量,而不是谓词,谓词可能涉及多个变量,其中只有一些变量是统一的

正如你所指出的,这个问题似乎更多的是关于开放世界,因为缺乏关于黄色球的知识并不意味着没有

除了我在你的另一个问题中给你的推荐信之外

对于这个特定的问题,您可能想看看这些文件,它们专门处理这些问题:

David Poole,一阶概率推断:

de Salvo Braz等人提出了一阶概率推断

注意:我考虑添加一个通配符标识符
来表示未知位置。在这种情况下,而不是只考虑,例如,绑定(1,1),(1,2),(2,1)和(2,2),系统还将考虑(1,?),(2,?),(?,1),(?,2)和(?,?)。不幸的是,我不认为这是一个可行的解决方案,因为我无法想象如何计算这些概率;计算具有所讨论属性的已知实体的概率很容易,但我不知道如何计算具有这些属性的未知实体存在的概率。你这里的分辨率到底是什么意思?在自动定理证明中,通常指的是一个规则,它接受两个析取子句并生成新的析取子句。不过你有连词。如果你有一个像“每个黄色的球都在每个蓝色的盒子后面”这样的句子,那么这个子句应该是1:{-yellow(x),-ball(x),-blue(y),-box(y),behind(x,y)}。然后,你对蓝框的观察是两个从句:2:{box(3)}和3:{blue(3)}。解析1和2产生4:{-黄色(x),-球(x),-蓝色(3),在(x,3)后面。然后,解析3和4……产生5:{-黄色(x),-球(x),在(x,3)后面。若你们以后发现这个人是一个黄色的球,你们将有6:{yellow(y)}和7:{ball(7)}。在两个以上的决议之后,你将有{behind(3,7)}。这就是你想要做的事情吗?这里的解析不是你使用它的意义,而是在语言学意义上的共指解析(见:)。啊,好的。那么,您可能想从问题中删除统一标签。它在tag wiki中的描述是“在计算机科学和逻辑中,统一是一个试图解决可满足性问题的算法过程。统一的目标是找到一个替代,证明两个看似不同的术语实际上要么相同,要么恰好相等。”我不认为你想这么做。