Machine learning 机器学习中的贝叶斯优化

Machine learning 机器学习中的贝叶斯优化,machine-learning,Machine Learning,谢谢你阅读这篇文章。我目前正在研究贝叶斯优化问题,并遵循教程。请看附件 第11页,关于采集功能。在我提出问题之前,我需要陈述我对贝叶斯优化的理解,看看是否有任何错误 首先,我们需要取一些训练点,并假设它们是多变量高斯分布。然后我们需要使用acquisiont函数来找到下一个要采样的点。例如,我们使用x1…x(t)作为训练点,然后我们需要使用采集函数来找到x(t+1)并对其进行采样。然后我们假设x1…x(t),x(t+1)为多变量高斯分布,然后使用采集函数找到x(t+2)进行采样,以此类推。 在第

谢谢你阅读这篇文章。我目前正在研究贝叶斯优化问题,并遵循教程。请看附件

第11页,关于采集功能。在我提出问题之前,我需要陈述我对贝叶斯优化的理解,看看是否有任何错误

首先,我们需要取一些训练点,并假设它们是多变量高斯分布。然后我们需要使用acquisiont函数来找到下一个要采样的点。例如,我们使用x1…x(t)作为训练点,然后我们需要使用采集函数来找到x(t+1)并对其进行采样。然后我们假设x1…x(t),x(t+1)为多变量高斯分布,然后使用采集函数找到x(t+2)进行采样,以此类推。 在第11页,我们似乎需要找到最大改善概率的x。f(x+)来自样本训练点(x1…xt),很容易获得。但是如何得到u(x)和这个方差呢?我不知道等式中的x是什么。它应该是x(t+1),但论文没有这么说。如果它确实是x(t+1),那么我怎么能得到它的u(x(t+1))?你可以在第8页的底部说使用方程,但我们可以在找到x(t+1)并将其放入多变量高斯分布的条件下使用该方程。现在我们不知道下一个点x(t+1)是什么,所以我认为我没有办法计算。
我知道这是一个棘手的问题。谢谢你的回答

事实上我已经得到了答案。 确实是x(t+1)。直接的方法是我们计算训练数据之外其余x的每一个u和方差,并将其放入采集函数中,以找出哪一个最大。 这很费时。因此,我们使用像DIRECT这样的非线性优化来获得最大捕获函数的x,而不是逐个尝试