Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/80.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
R 尝试在我已建模的贝叶斯网络上运行bn.fit模型时出现INT_MAX错误_R_Bayesian Networks_Bnlearn - Fatal编程技术网

R 尝试在我已建模的贝叶斯网络上运行bn.fit模型时出现INT_MAX错误

R 尝试在我已建模的贝叶斯网络上运行bn.fit模型时出现INT_MAX错误,r,bayesian-networks,bnlearn,R,Bayesian Networks,Bnlearn,我使用bnlearn软件包构建了一个贝叶斯信念网络。它由40个因子变量组成,因子水平从2到16不等。我使用modelstring()创建了一个手动贝叶斯图,当我尝试在贝叶斯模型上运行bn.fit时,我在minimal.table(data[,c(node,parents),drop=FALSE)中得到了这个错误“error”,其中.missing=!all(data.info$complete.nodes[c(node,: 正在尝试创建包含多个INT_MAX单元格的表” 有没有一种方法可以在不从

我使用bnlearn软件包构建了一个贝叶斯信念网络。它由40个因子变量组成,因子水平从2到16不等。我使用modelstring()创建了一个手动贝叶斯图,当我尝试在贝叶斯模型上运行bn.fit时,我在minimal.table(data[,c(node,parents),drop=FALSE)中得到了这个错误“error”,其中.missing=!all(data.info$complete.nodes[c(node,: 正在尝试创建包含多个INT_MAX单元格的表” 有没有一种方法可以在不从数据集中删除任何变量的情况下避免这种情况


我查看了我的编译器的INT_MAX value,它是2147483647

欢迎使用stackoverflow。请编辑您的问题以提供一个可复制的示例。有关更多指导,请参阅。我相信当CPT有太多单元格时会发生这种情况;您可能必须限制父(或子)数或者折叠一些级别。谢谢@user20650。是的,看起来我必须减少变量和因子级别的数量。当我做一些研究时,我遇到了一些节点数量非常多的BN,我想知道可以使用什么系统来生成它们。我的RstudioDesktop编译器真的很困难@AnT;这并不是说你需要减少变量的总数,而是你需要减少家长的数量。我目前正在学习带有1500个变量的BNs,但我必须限制家长的数量(maxp参数)或者,由于CPT构造,我得到了相同的错误……但你也必须考虑对这种规模的CPT的估计,有这么多的水平-除非你有数百万的观测,否则你将无法得到一个合理的估计(如果使用ML禁止证据传播,则大量零,如果使用Bayes估计,则相当一致)欢迎使用stackoverflow。请编辑您的问题以提供一个可复制的示例。有关更多指导,请参阅。我相信,当CPT有太多单元格时,会出现这种情况;您可能必须限制父级的数量(或儿童)或者折叠一些级别。谢谢@user20650。是的,看起来我必须减少变量和因子级别的数量。当我做一些研究时,我遇到了一些节点数量非常多的BN,我想知道可以使用什么系统来生成它们。我的RstudioDesktop编译器真的很困难@AnT;这并不是说你需要减少变量的总数,而是你需要减少家长的数量。我目前正在学习带有1500个变量的BNs,但我必须限制家长的数量(maxp参数)或者,由于CPT构造,我得到了相同的错误……但你也必须考虑对这种规模的CPT的估计,有这么多的水平-除非你有数百万的观测,否则你将无法得到一个合理的估计(如果使用ML禁止证据传播,则大量零,如果使用Bayes估计,则相当一致)