Neural network 自动编码器参数化/非参数化?

Neural network 自动编码器参数化/非参数化?,neural-network,autoencoder,Neural Network,Autoencoder,你能说自动编码器通常是参数的还是非参数的(就模式识别而言)? 我认为这两种方法都是可能的,因为你可以假设潜在的误差分布,但你也可以用不同的方法估计误差,对吗?除非你使用非标准的参数定义或自动编码器-自动编码器是100%参数化的 这与假设误差分布无关-最终,建模分布由一组有限的参数(神经网络的权重)表示,因此模型是参数化的。每个基于神经网络的模型都是参数化的(除非考虑无界的神经网络结构,但只要它是一个单一的固定结构,每个“经典”神经网络本质上都是参数化的) 当然,我们可以定义非参数的“怪异”自动编

你能说自动编码器通常是参数的还是非参数的(就模式识别而言)?
我认为这两种方法都是可能的,因为你可以假设潜在的误差分布,但你也可以用不同的方法估计误差,对吗?

除非你使用非标准的参数定义或自动编码器-自动编码器是100%参数化的

这与假设误差分布无关-最终,建模分布由一组有限的参数(神经网络的权重)表示,因此模型是参数化的。每个基于神经网络的模型都是参数化的(除非考虑无界的神经网络结构,但只要它是一个单一的固定结构,每个“经典”神经网络本质上都是参数化的)

当然,我们可以定义非参数的“怪异”自动编码器,使用GPs或其他非参数方法来实现这一点,但这只是命名约定的问题——什么是自动编码器,什么不是自动编码器。如果说自动编码器,我们指的是“传统”的神经网络——它是参数化的。如果我们指的是任何模型f(x |θ),它被训练为最小化E[L(f(x |θ),x)],那么就没有办法回答,因为这个族由参数和非参数模型组成