Machine learning 如何缩放一个输入示例?

Machine learning 如何缩放一个输入示例?,machine-learning,dataset,normalization,scaling,Machine Learning,Dataset,Normalization,Scaling,我有这样一个输入功能的数据集: [81.2819,5636.209677,9957.279495] 以上是我的神经网络的三个输入特征。假设我的整个数据集的大小是:(10000 x 3) 当我使用以下代码行缩放整个数据集时: scaler = preprocessing.MinMaxScaler() scaled_ds = scaler.fit_transform(dataset) 一切正常。但当我只缩放一行时,就像上面的一行一样,我得到了零,比如: array([[0., 0., 0.]])

我有这样一个输入功能的数据集: [81.2819,5636.209677,9957.279495] 以上是我的神经网络的三个输入特征。假设我的整个数据集的大小是:(10000 x 3) 当我使用以下代码行缩放整个数据集时:

scaler = preprocessing.MinMaxScaler()
scaled_ds = scaler.fit_transform(dataset)
一切正常。但当我只缩放一行时,就像上面的一行一样,我得到了零,比如:

array([[0., 0., 0.]])
你们谁能解释一下原因吗

根据:

因此,对于单个样本,X.min与X.max重合,导致范围为零。零除法处理反过来会导致X_缩放为零

这应该可以解释为什么不能为单个数据样本定义特性级缩放。另一方面,如果您已经适应了数据集,并且只想转换一个新示例,则需要使用:

scaled_sample = scaler.transform(sample)

i、 e.只使用预先获得的最小值/最大值,而不是尝试拟合新值。

即使我只是对获得的参数使用推断函数?
scaled_sample = scaler.transform(sample)