Python 调用曲线拟合时拟合任意数量的参数
我发现最接近这个问题的是这里:。我有一个多参数函数,我希望能够调用,在代码的不同部分优化不同的参数子集,因为对于某些数据集,我可能能够根据辅助数据修复某些参数。以下问题的简化演示Python 调用曲线拟合时拟合任意数量的参数,python,lambda,curve-fitting,Python,Lambda,Curve Fitting,我发现最接近这个问题的是这里:。我有一个多参数函数,我希望能够调用,在代码的不同部分优化不同的参数子集,因为对于某些数据集,我可能能够根据辅助数据修复某些参数。以下问题的简化演示 from scipy.optimize import curve_fit import numpy as np def wrapper_func(**kwargs): a = kwargs['a'] if 'a' in kwargs else None b = kwargs['b'] if 'b' i
from scipy.optimize import curve_fit
import numpy as np
def wrapper_func(**kwargs):
a = kwargs['a'] if 'a' in kwargs else None
b = kwargs['b'] if 'b' in kwargs else None
c = kwargs['c'] if 'c' in kwargs else None
return lambda x, a, c: func(x, a, b, c)
def func(x, a, b, c):
return a * x**2 + b * x + c
# Set parameters
a = 0.3
b = 5
c = 17
# Make some fake data
x_vals = np.arange(100)
y_vals = a * x_vals**2 + b * x_vals + c
noise = np.random.randn(100) * 20
# Get fit
popt, pcov = curve_fit(lambda x, a_, c_: func(x, a_, b, c_),
x_vals, y_vals + noise)
# Get fit using separate function
alt_popt, alt_cov = curve_fit(wrapper_func(b=5), x_vals, y_vals + noise)
这是可行的,但我希望能够将任何参数组合传递给固定值。所以这里参数a和c是优化的,b是固定的,但如果我想修正a,优化b和c或任何其他组合,有没有办法做到这一点?我从上面的wrapper_func开始,但同样的问题也出现了:似乎没有办法改变哪些参数得到了优化,除非根据传递的固定参数值编写多个lambda。这很快就会变得难看,因为我正在处理的方程有4-6个参数。我可以使用eval使一个版本正常工作,但不建议这样做。就目前情况而言,我一直在尝试将*args与lambda一起使用,但没有成功地使其工作。
非常感谢任何提示 这是我的解决方案。我不知道如何使用curve_fit实现,但它可以使用leastsq。它有一个包装函数,该函数接受自由参数和固定参数以及自由参数位置的列表。由于leastsq首先使用自由参数调用函数,因此包装器必须重新排列顺序
from matplotlib import pyplot as plt
import numpy as np
from scipy.optimize import leastsq
def func(x,a,b,c,d,e):
return a+b*x+c*x**2+d*x**3+e*x**4
#takes x, the 5 parameters and a list
# the first n parameters are free
# the list of length n gives there position, e.g. 2 parameters, 1st and 3rd order ->[1,3]
# the remaining parameters are in order, i.e. in this example it would be f(x,b,d,a,c,e)
def expand_parameters(*args):
callArgs=args[1:6]
freeList=args[-1]
fixedList=range(5)
for item in freeList:
fixedList.remove(item)
callList=[0,0,0,0,0]
for val,pos in zip(callArgs, freeList+fixedList):
callList[pos]=val
return func(args[0],*callList)
def residuals(parameters,dataPoint,fixedParameterValues=None,freeParametersPosition=None):
if fixedParameterValues is None:
a,b,c,d,e = parameters
dist = [y -func(x,a,b,c,d,e) for x,y in dataPoint]
else:
assert len(fixedParameterValues)==5-len(freeParametersPosition)
assert len(fixedParameterValues)>0
assert len(fixedParameterValues)<5 # doesn't make sense to fix all
extraIn=list(parameters)+list(fixedParameterValues)+[freeParametersPosition]
dist = [y -expand_parameters(x,*extraIn) for x,y in dataPoint]
return dist
if __name__=="__main__":
xList=np.linspace(-1,3,15)
fList=np.fromiter( (func(s,1.1,-.9,-.7,.5,.1) for s in xList), np.float)
fig=plt.figure()
ax=fig.add_subplot(1,1,1)
dataTupel=zip(xList,fList)
###some test
print residuals([1.1,-.9,-.7,.5,.1],dataTupel)
print residuals([1.1,-.9,-.7,.5],dataTupel,fixedParameterValues=[.1],freeParametersPosition=[0,1,2,3])
#exact fit
bestFitValuesAll, ier = leastsq(residuals, [1,1,1,1,1],args=(dataTupel))
print bestFitValuesAll
###Only a constant
guess=[1]
bestFitValuesConstOnly, ier = leastsq(residuals, guess,args=(dataTupel,[0,0,0,0],[0]))
print bestFitValuesConstOnly
fConstList=np.fromiter(( func(x,*np.append(bestFitValuesConstOnly,[0,0,0,0])) for x in xList),np.float)
###Only 2nd and 4th
guess=[1,1]
bestFitValues_1_3, ier = leastsq(residuals, guess,args=(dataTupel,[0,0,0],[2,4]))
print bestFitValues_1_3
f_1_3_List=np.fromiter(( expand_parameters(x, *(list(bestFitValues_1_3)+[0,0,0]+[[2,4]] ) ) for x in xList),np.float)
###Only 2nd and 4th with closer values
guess=[1,1]
bestFitValues_1_3_closer, ier = leastsq(residuals, guess,args=(dataTupel,[1.2,-.8,0],[2,4]))
print bestFitValues_1_3_closer
f_1_3_closer_List=np.fromiter(( expand_parameters(x, *(list(bestFitValues_1_3_closer)+[1.2,-.8,0]+[[2,4]] ) ) for x in xList),np.float)
ax.plot(xList,fList,linestyle='',marker='o',label='orig')
ax.plot(xList,fConstList,linestyle='',marker='o',label='0')
ax.plot(xList,f_1_3_List,linestyle='',marker='o',label='1,3')
ax.plot(xList,f_1_3_closer_List,linestyle='',marker='o',label='1,3 c')
ax.legend(loc=0)
plt.show()
lmfit正是这样做的。我们不需要为fit中的参数创建浮点值数组,而是创建一个parameters对象—一个用于参数化数据模型的有序参数对象字典。每个参数可以在拟合中固定或变化,可以具有最大/最小界限,或者可以根据拟合中的其他参数定义为简单的数学表达式
也就是说,使用lmfit及其模型类(特别适用于曲线拟合),可以创建参数,然后可以决定哪些参数将被优化,哪些参数将保持不变
例如,以下是您提出的问题的变体:
import numpy as np
from lmfit import Model
import matplotlib.pylab as plt
# starting parameters
a, b, c = 0.3, 5, 17
x_vals = np.arange(100)
noise = np.random.normal(size=100, scale=0.25)
y_vals = a * x_vals**2 + b * x_vals + c + noise
def func(x, a, b, c):
return a * x**2 + b * x + c
# create a Model from this function
model = Model(func)
# create parameters with initial values. Model will know to
# turn function args `a`, `b`, and `c` into Parameters:
params = model.make_params(a=0.25, b=4, c=10)
# you can alter each parameter, for example, fix b or put bounds on a
params['b'].vary = False
params['b'].value = 5.3
params['a'].min = -1
params['a'].max = 1
# run fit
result = model.fit(y_vals, params, x=x_vals)
# print and plot results
print(result.fit_report())
result.plot(datafmt='--')
plt.show()
将打印:
[[Model]]
Model(func)
[[Fit Statistics]]
# function evals = 12
# data points = 100
# variables = 2
chi-square = 475.843
reduced chi-square = 4.856
Akaike info crit = 159.992
Bayesian info crit = 165.202
[[Variables]]
a: 0.29716481 +/- 7.46e-05 (0.03%) (init= 0.25)
b: 5.3 (fixed)
c: 11.4708897 +/- 0.329508 (2.87%) (init= 10)
[[Correlations]] (unreported correlations are < 0.100)
C(a, c) = -0.744
然后比较/对比这两个结果。这看起来不错。我应该在问题中提到我正在研究lmfit,但我想知道是否有一种不安装额外模块的简单方法。如果不是,我想这就是为什么lmfit被开发出来的原因!lmfit是纯python,可在pypi和conda通道上使用-它不应该成为依赖项的负担。当然,您可以尝试使用自己的解决方案,但也可以自己编写curve_fit或numpy;。好的,这很有用。除此之外:这本身可能是一个新问题,但我无法使用conda进行安装,因为lmfit和瓶颈之间存在冲突。anaconda完全是最新的:这似乎是另一个问题。不确定问题出在哪里,但是lmfit可以在一些conda通道和PyPI上使用,并且从源代码安装很容易,因为包是纯python的。非常感谢您的帮助。我尝试了一个不同的康达频道,它安装没有问题。
[[Model]]
Model(func)
[[Fit Statistics]]
# function evals = 12
# data points = 100
# variables = 2
chi-square = 475.843
reduced chi-square = 4.856
Akaike info crit = 159.992
Bayesian info crit = 165.202
[[Variables]]
a: 0.29716481 +/- 7.46e-05 (0.03%) (init= 0.25)
b: 5.3 (fixed)
c: 11.4708897 +/- 0.329508 (2.87%) (init= 10)
[[Correlations]] (unreported correlations are < 0.100)
C(a, c) = -0.744
params['b'].vary = True
params['a'].value = 0.285
params['a'].vary = False
newresult = model.fit(y_vals, params, x=x_vals)