Python 调用曲线拟合时拟合任意数量的参数

Python 调用曲线拟合时拟合任意数量的参数,python,lambda,curve-fitting,Python,Lambda,Curve Fitting,我发现最接近这个问题的是这里:。我有一个多参数函数,我希望能够调用,在代码的不同部分优化不同的参数子集,因为对于某些数据集,我可能能够根据辅助数据修复某些参数。以下问题的简化演示 from scipy.optimize import curve_fit import numpy as np def wrapper_func(**kwargs): a = kwargs['a'] if 'a' in kwargs else None b = kwargs['b'] if 'b' i

我发现最接近这个问题的是这里:。我有一个多参数函数,我希望能够调用,在代码的不同部分优化不同的参数子集,因为对于某些数据集,我可能能够根据辅助数据修复某些参数。以下问题的简化演示

from scipy.optimize import curve_fit
import numpy as np

def wrapper_func(**kwargs):
    a = kwargs['a'] if 'a' in kwargs else None
    b = kwargs['b'] if 'b' in kwargs else None
    c = kwargs['c'] if 'c' in kwargs else None
return lambda x, a, c: func(x, a, b, c)

def func(x, a, b, c):
    return a * x**2 + b * x + c

# Set parameters    
a = 0.3
b = 5
c = 17 

# Make some fake data
x_vals = np.arange(100)
y_vals = a * x_vals**2 + b * x_vals + c
noise = np.random.randn(100) * 20

# Get fit
popt, pcov = curve_fit(lambda x, a_, c_: func(x, a_, b, c_), 
                       x_vals, y_vals + noise)

# Get fit using separate function
alt_popt, alt_cov = curve_fit(wrapper_func(b=5), x_vals, y_vals + noise)
这是可行的,但我希望能够将任何参数组合传递给固定值。所以这里参数a和c是优化的,b是固定的,但如果我想修正a,优化b和c或任何其他组合,有没有办法做到这一点?我从上面的wrapper_func开始,但同样的问题也出现了:似乎没有办法改变哪些参数得到了优化,除非根据传递的固定参数值编写多个lambda。这很快就会变得难看,因为我正在处理的方程有4-6个参数。我可以使用eval使一个版本正常工作,但不建议这样做。就目前情况而言,我一直在尝试将*args与lambda一起使用,但没有成功地使其工作。
非常感谢任何提示

这是我的解决方案。我不知道如何使用curve_fit实现,但它可以使用leastsq。它有一个包装函数,该函数接受自由参数和固定参数以及自由参数位置的列表。由于leastsq首先使用自由参数调用函数,因此包装器必须重新排列顺序

from matplotlib import pyplot as plt
import numpy as np
from scipy.optimize import leastsq

def func(x,a,b,c,d,e):
    return a+b*x+c*x**2+d*x**3+e*x**4

#takes x, the 5 parameters and a list
# the first n parameters are free
# the list of length n gives there position, e.g. 2  parameters, 1st and 3rd order ->[1,3]
# the remaining parameters are in order, i.e. in this example it would be f(x,b,d,a,c,e)
def expand_parameters(*args):
    callArgs=args[1:6]
    freeList=args[-1]
    fixedList=range(5)
    for item in freeList:
        fixedList.remove(item)
    callList=[0,0,0,0,0]
    for val,pos in zip(callArgs, freeList+fixedList):
        callList[pos]=val
    return func(args[0],*callList)

def residuals(parameters,dataPoint,fixedParameterValues=None,freeParametersPosition=None):
    if fixedParameterValues is None:
        a,b,c,d,e = parameters
        dist = [y -func(x,a,b,c,d,e) for x,y in dataPoint] 
    else:
        assert len(fixedParameterValues)==5-len(freeParametersPosition)
        assert len(fixedParameterValues)>0
        assert len(fixedParameterValues)<5 # doesn't make sense to fix all
        extraIn=list(parameters)+list(fixedParameterValues)+[freeParametersPosition]
        dist = [y -expand_parameters(x,*extraIn) for x,y in dataPoint]
    return dist


if __name__=="__main__":
    xList=np.linspace(-1,3,15)
    fList=np.fromiter( (func(s,1.1,-.9,-.7,.5,.1) for s in xList), np.float)

    fig=plt.figure()
    ax=fig.add_subplot(1,1,1)

    dataTupel=zip(xList,fList)

    ###some test
    print residuals([1.1,-.9,-.7,.5,.1],dataTupel)
    print residuals([1.1,-.9,-.7,.5],dataTupel,fixedParameterValues=[.1],freeParametersPosition=[0,1,2,3])

    #exact fit
    bestFitValuesAll, ier = leastsq(residuals, [1,1,1,1,1],args=(dataTupel))
    print bestFitValuesAll

    ###Only a constant
    guess=[1]
    bestFitValuesConstOnly, ier = leastsq(residuals, guess,args=(dataTupel,[0,0,0,0],[0]))
    print bestFitValuesConstOnly
    fConstList=np.fromiter(( func(x,*np.append(bestFitValuesConstOnly,[0,0,0,0])) for x in xList),np.float)

    ###Only 2nd and 4th
    guess=[1,1]
    bestFitValues_1_3, ier = leastsq(residuals, guess,args=(dataTupel,[0,0,0],[2,4]))
    print bestFitValues_1_3
    f_1_3_List=np.fromiter(( expand_parameters(x, *(list(bestFitValues_1_3)+[0,0,0]+[[2,4]] ) )  for x in xList),np.float)


    ###Only 2nd and 4th with closer values
    guess=[1,1]
    bestFitValues_1_3_closer, ier = leastsq(residuals, guess,args=(dataTupel,[1.2,-.8,0],[2,4]))
    print bestFitValues_1_3_closer
    f_1_3_closer_List=np.fromiter(( expand_parameters(x, *(list(bestFitValues_1_3_closer)+[1.2,-.8,0]+[[2,4]] ) )  for x in xList),np.float)


    ax.plot(xList,fList,linestyle='',marker='o',label='orig')
    ax.plot(xList,fConstList,linestyle='',marker='o',label='0')
    ax.plot(xList,f_1_3_List,linestyle='',marker='o',label='1,3')
    ax.plot(xList,f_1_3_closer_List,linestyle='',marker='o',label='1,3 c')

    ax.legend(loc=0)

    plt.show()
lmfit正是这样做的。我们不需要为fit中的参数创建浮点值数组,而是创建一个parameters对象—一个用于参数化数据模型的有序参数对象字典。每个参数可以在拟合中固定或变化,可以具有最大/最小界限,或者可以根据拟合中的其他参数定义为简单的数学表达式

也就是说,使用lmfit及其模型类(特别适用于曲线拟合),可以创建参数,然后可以决定哪些参数将被优化,哪些参数将保持不变

例如,以下是您提出的问题的变体:

import numpy as np
from lmfit import Model
import matplotlib.pylab as plt

# starting parameters
a, b, c = 0.3, 5, 17
x_vals = np.arange(100)
noise = np.random.normal(size=100, scale=0.25)
y_vals = a * x_vals**2 + b * x_vals + c + noise

def func(x, a, b, c):
    return a * x**2 + b * x + c

# create a Model from this function
model = Model(func)

# create parameters with initial values. Model will know to 
# turn function args `a`, `b`, and `c` into Parameters:
params = model.make_params(a=0.25, b=4, c=10)

# you can alter each parameter, for example, fix b or put bounds on a
params['b'].vary = False
params['b'].value = 5.3
params['a'].min = -1
params['a'].max =  1

# run fit
result = model.fit(y_vals, params, x=x_vals)

# print and plot results
print(result.fit_report())
result.plot(datafmt='--')
plt.show()
将打印:

[[Model]]
    Model(func)
[[Fit Statistics]]
    # function evals   = 12
    # data points      = 100
    # variables        = 2
    chi-square         = 475.843
    reduced chi-square = 4.856
    Akaike info crit   = 159.992
    Bayesian info crit = 165.202
[[Variables]]
    a:   0.29716481 +/- 7.46e-05 (0.03%) (init= 0.25)
    b:   5.3 (fixed)
    c:   11.4708897 +/- 0.329508 (2.87%) (init= 10)
[[Correlations]] (unreported correlations are <  0.100)
    C(a, c)                      = -0.744 

然后比较/对比这两个结果。

这看起来不错。我应该在问题中提到我正在研究lmfit,但我想知道是否有一种不安装额外模块的简单方法。如果不是,我想这就是为什么lmfit被开发出来的原因!lmfit是纯python,可在pypi和conda通道上使用-它不应该成为依赖项的负担。当然,您可以尝试使用自己的解决方案,但也可以自己编写curve_fit或numpy;。好的,这很有用。除此之外:这本身可能是一个新问题,但我无法使用conda进行安装,因为lmfit和瓶颈之间存在冲突。anaconda完全是最新的:这似乎是另一个问题。不确定问题出在哪里,但是lmfit可以在一些conda通道和PyPI上使用,并且从源代码安装很容易,因为包是纯python的。非常感谢您的帮助。我尝试了一个不同的康达频道,它安装没有问题。
[[Model]]
    Model(func)
[[Fit Statistics]]
    # function evals   = 12
    # data points      = 100
    # variables        = 2
    chi-square         = 475.843
    reduced chi-square = 4.856
    Akaike info crit   = 159.992
    Bayesian info crit = 165.202
[[Variables]]
    a:   0.29716481 +/- 7.46e-05 (0.03%) (init= 0.25)
    b:   5.3 (fixed)
    c:   11.4708897 +/- 0.329508 (2.87%) (init= 10)
[[Correlations]] (unreported correlations are <  0.100)
    C(a, c)                      = -0.744 
params['b'].vary = True
params['a'].value = 0.285
params['a'].vary = False

newresult = model.fit(y_vals, params, x=x_vals)