R GLM系数估计加速比

R GLM系数估计加速比,r,optimization,glm,logistic-regression,R,Optimization,Glm,Logistic Regression,我需要一个模拟来估计超过10亿个不同的逻辑回归(logit-link),其中我只需要跟踪系数估计。没有别的了。 我正在寻找一种比glm(…,family=binomial)更快获得此信息的方法。。 我尝试在似然度上使用优化函数,但即使从实际系数值开始算法,它也需要与“glm”命令几乎相同的时间。 该模型包括1-5个协变量,n在100到1000之间。此外:我正在并行运行主循环,它可以工作(我将以前的时间减少了70%左右),但是如果我需要模拟n=1000,它仍然是一个长期运行。这是重复的吗?(我不是

我需要一个模拟来估计超过10亿个不同的逻辑回归(logit-link),其中我只需要跟踪系数估计。没有别的了。 我正在寻找一种比glm(…,family=binomial)更快获得此信息的方法。。 我尝试在似然度上使用优化函数,但即使从实际系数值开始算法,它也需要与“glm”命令几乎相同的时间。
该模型包括1-5个协变量,n在100到1000之间。此外:我正在并行运行主循环,它可以工作(我将以前的时间减少了70%左右),但是如果我需要模拟n=1000,它仍然是一个长期运行。

这是重复的吗?(我不是100%确定,因为这是一个关于做一个相对大的适合)。直接优化可能性应该比
glm()
慢得多。(数十亿?哇。)PS-知道个体回归中(平均)涉及的观察值/参数的数量会很有帮助。我将给出与Ben相同的链接(特别是他的评论)。我相信优化BLAS和并行化(例如,如果你的机构没有集群,从Amazon EC2租用一些CPU)似乎是一个明显的方法。不,这不是重复,这是大约十亿个类似情况的实现:1-5个协变量,n在100到1000之间。此外:我正在并行运行主循环,它是有效的(我将以前的时间减少了70%左右),但是如果我需要模拟n=1000,它仍然是一个长期的运行。那么,通过实现
speedglm()
和/或
glm.fit
,您取得了多大的进展?你能告诉我们目前的建议有多大帮助吗?您应该编辑您的问题,以包含有关协变量和n的信息(注释是短暂的)…我将尝试使用您建议我使用的命令,我发现MRO(Microsoft R Open)版本的RIs这是重复的吗?(我不是100%确定,因为这是一个关于做一个相对大的适合)。直接优化可能性应该比
glm()
慢得多。(数十亿?哇。)PS-知道个体回归中(平均)涉及的观察值/参数的数量会很有帮助。我将给出与Ben相同的链接(特别是他的评论)。我相信优化BLAS和并行化(例如,如果你的机构没有集群,从Amazon EC2租用一些CPU)似乎是一个明显的方法。不,这不是重复,这是大约十亿个类似情况的实现:1-5个协变量,n在100到1000之间。此外:我正在并行运行主循环,它是有效的(我将以前的时间减少了70%左右),但是如果我需要模拟n=1000,它仍然是一个长期的运行。那么,通过实现
speedglm()
和/或
glm.fit
,您取得了多大的进展?你能告诉我们目前的建议有多大帮助吗?您应该编辑您的问题,以包含有关协变量和n的信息(注释是短暂的)…我将尝试使用您建议我使用的命令,我发现了R的MRO(Microsoft R Open)版本