Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/303.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/excel/28.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python中最小化日志可能性_Python_Excel_Optimization_Solver - Fatal编程技术网

Python中最小化日志可能性

Python中最小化日志可能性,python,excel,optimization,solver,Python,Excel,Optimization,Solver,这是一个关于Python优化的一般性问题。我试图解决的问题有91个参数需要优化,以最小化对数似然函数。目前,我使用的是scipy.optimize.minimize,然而,与使用Excel的解算器相比,我发现这个过程非常缓慢,尽管我预期Python会快得多 这是不是属于scipy.optimize.minimize的情况,一般来说,它不如Excel的解算器快,或者参数的数量对于scipy来说太多了?如果是这样的话,有没有比Python中Excel的解算器更快的替代方案 这不是excel的问题,为

这是一个关于Python优化的一般性问题。我试图解决的问题有91个参数需要优化,以最小化对数似然函数。目前,我使用的是
scipy.optimize.minimize
,然而,与使用Excel的解算器相比,我发现这个过程非常缓慢,尽管我预期Python会快得多


这是不是属于
scipy.optimize.minimize
的情况,一般来说,它不如Excel的解算器快,或者参数的数量对于scipy来说太多了?如果是这样的话,有没有比Python中Excel的解算器更快的替代方案

这不是excel的问题,为什么标签?excel的非线性GRG解算器实际上非常好,比
scipy.optimize.minimize
更复杂。一个好的起点往往会有所帮助。你能先做标准最小二乘回归得到合理的估计值吗?