Statistics 基于PAC学习框架的计算学习理论

Statistics 基于PAC学习框架的计算学习理论,statistics,machine-learning,computation-theory,Statistics,Machine Learning,Computation Theory,考虑一种从训练集中训练的机器学习算法,借助PAC学习模型,我们得到了所需训练样本量的界,因此误差受限的概率(由ε)是有界的(由δ) PAC学习模型对计算(时间)复杂性有何解释。 假设给一个学习算法更多的时间(比如更多的迭代),误差和误差受限的概率是如何变化的 作为一种需要一小时训练的学习算法,在财务预测问题中没有实际应用。我需要性能如何随算法时间的变化而变化,包括误差范围和误差有界的概率。PAC模型简单地告诉您需要多少数据才能以一定的概率获得一定程度的误差。通过查看您使用的实际机器学习算法,这可

考虑一种从训练集中训练的机器学习算法,借助PAC学习模型,我们得到了所需训练样本量的界,因此误差受限的概率(由ε)是有界的(由δ)

PAC学习模型对计算(时间)复杂性有何解释。 假设给一个学习算法更多的时间(比如更多的迭代),误差和误差受限的概率是如何变化的


作为一种需要一小时训练的学习算法,在财务预测问题中没有实际应用。我需要性能如何随算法时间的变化而变化,包括误差范围和误差有界的概率。PAC模型简单地告诉您需要多少数据才能以一定的概率获得一定程度的误差。通过查看您使用的实际机器学习算法,这可以转化为对运行时的影响

例如,如果您的算法在时间O(2^n)内运行,并且PAC模型说您需要1000个示例才能有95%的概率出现.05错误,10000个示例才能有.005错误,那么您知道,您应该预计精度的提高会大大降低。然而,对于O(logn)算法,相同的PAC信息可能会导致您继续进行并获得更低的错误

另一方面,听起来您可能对大多数监督学习算法的工作方式感到困惑:

假设给一个学习算法更多的时间(比如更多的迭代),误差和误差受限的概率是如何变化的


在大多数情况下,你不能给同一个算法更多的时间并期望更好的结果,除非你改变参数(例如学习率)或增加示例的数量。也许“迭代”指的是示例,在这种情况下,示例数量对概率和错误率的影响可以通过操纵PAC学习模型所用的方程组来发现;查看wiki。

PAC模型简单地告诉您需要多少数据才能以一定的概率获得一定程度的错误。通过查看您使用的实际机器学习算法,这可以转化为对运行时的影响

例如,如果您的算法在时间O(2^n)内运行,并且PAC模型说您需要1000个示例才能有95%的概率出现.05错误,10000个示例才能有.005错误,那么您知道,您应该预计精度的提高会大大降低。然而,对于O(logn)算法,相同的PAC信息可能会导致您继续进行并获得更低的错误

另一方面,听起来您可能对大多数监督学习算法的工作方式感到困惑:

假设给一个学习算法更多的时间(比如更多的迭代),误差和误差受限的概率是如何变化的


在大多数情况下,你不能给同一个算法更多的时间并期望更好的结果,除非你改变参数(例如学习率)或增加示例的数量。也许“迭代”指的是示例,在这种情况下,示例数量对概率和错误率的影响可以通过操纵PAC学习模型所用的方程组来发现;查看wiki。

答案不错!我只想补充一点,在PAC框架中考虑了计算复杂性。如果一个概念是PAC可学习的,并且在多项式时间内运行,那么它就被称为“高效”PAC可学习。回答得好!我只想补充一点,在PAC框架中考虑了计算复杂性。如果一个概念是PAC可学习的且在多项式时间内运行,则称其为“高效”PAC可学习。