Tensorflow SkFlow-使用分类器和回归器实现退出或L2正则化
有什么简单的方法可以实现正则化方法吗 在SkFlow中有一种实现辍学的方法,但它没有实现估计器 以下是我正在使用的代码:Tensorflow SkFlow-使用分类器和回归器实现退出或L2正则化,tensorflow,Tensorflow,有什么简单的方法可以实现正则化方法吗 在SkFlow中有一种实现辍学的方法,但它没有实现估计器 以下是我正在使用的代码: regressor = skflow.TensorFlowDNNRegressor( hidden_units=[ 20, 30, 30, 30, 20 ], steps=steps, learning_rate=0.3, batch_size=32) regressor.f
regressor = skflow.TensorFlowDNNRegressor(
hidden_units=[
20,
30,
30,
30,
20
],
steps=steps,
learning_rate=0.3,
batch_size=32)
regressor.fit(X_train, y_train)
如果还没有任何简单的方法来实现这些SkFlow估计器的正则化,那么如果有人能够展示、解释,或者给我指出一些基本上与TensorFlowdnRecessor相同的效果,但我可以为其添加正则化。此解决方案使用新的
tf.contrib.learn
api,它允许退出和优化器
val_monitor = learn.monitors.ValidationMonitor(
X_validate,
y_validate,
every_n_steps=100,
early_stopping_metric="loss",
early_stopping_metric_minimize=True,
early_stopping_rounds=1000)
feature_columns = [contrib.layers.real_valued_column("", dimension=2)]
regressor = learn.DNNRegressor(
feature_columns=feature_columns,
hidden_units=[1024, 512, 256],
model_dir="tmp/network_model",
config=tf.contrib.learn.RunConfig(save_checkpoints_secs=10),
optimizer=tf.train.ProximalAdagradOptimizer(
learning_rate=0.1,
#l2_regularization_strength=0.0001
),
dropout=0.1)
regressor.fit(X_train, y_train, steps=500000, batch_size=32, monitors=[val_monitor])
我仍然不知道如何让它与一个
有关和的详细信息。此解决方案使用新的
tf.contrib.learn
api,它允许退出和优化器
val_monitor = learn.monitors.ValidationMonitor(
X_validate,
y_validate,
every_n_steps=100,
early_stopping_metric="loss",
early_stopping_metric_minimize=True,
early_stopping_rounds=1000)
feature_columns = [contrib.layers.real_valued_column("", dimension=2)]
regressor = learn.DNNRegressor(
feature_columns=feature_columns,
hidden_units=[1024, 512, 256],
model_dir="tmp/network_model",
config=tf.contrib.learn.RunConfig(save_checkpoints_secs=10),
optimizer=tf.train.ProximalAdagradOptimizer(
learning_rate=0.1,
#l2_regularization_strength=0.0001
),
dropout=0.1)
regressor.fit(X_train, y_train, steps=500000, batch_size=32, monitors=[val_monitor])
我仍然不知道如何让它与一个
有关和的更多信息