Python tensorflow线性回归得到显著的均方误差

Python tensorflow线性回归得到显著的均方误差,python,tensorflow,regression,linear-regression,Python,Tensorflow,Regression,Linear Regression,我是tensorflow的新手,我正在尝试为回归实现一个简单的前馈网络,只是为了学习。完整的可执行代码如下所示 回归均方误差约为6,这相当大。这有点出乎意料,因为回归函数是线性且简单的2*x+y,我希望性能更好 我请求帮助检查我是否在代码中做了任何错误。我仔细检查了矩阵尺寸,因此应该是好的,但可能是我误解了某些东西,因此网络或会话没有正确配置(例如,我是否应该多次运行培训会话,而不是只运行一次(下面的代码用#training#括起来)?在一些示例中,我看到他们逐段输入数据,并逐步运行培训。我只运

我是tensorflow的新手,我正在尝试为回归实现一个简单的前馈网络,只是为了学习。完整的可执行代码如下所示

回归均方误差约为6,这相当大。这有点出乎意料,因为回归函数是线性且简单的2*x+y,我希望性能更好

我请求帮助检查我是否在代码中做了任何错误。我仔细检查了矩阵尺寸,因此应该是好的,但可能是我误解了某些东西,因此网络或会话没有正确配置(例如,我是否应该多次运行培训会话,而不是只运行一次(下面的代码用#training#括起来)?在一些示例中,我看到他们逐段输入数据,并逐步运行培训。我只运行一次培训,并输入所有数据)

如果代码是好的,可能这是一个建模问题,但我真的不希望使用复杂的网络来进行如此简单的回归

import tensorflow as tf
import numpy as np
from sklearn.metrics import mean_squared_error

# inputs are points from a 100x100 grid in domain [-2,2]x[-2,2], total 10000 points
lsp = np.linspace(-2,2,100)
gridx,gridy = np.meshgrid(lsp,lsp)
inputs = np.dstack((gridx,gridy))
inputs = inputs.reshape(-1,inputs.shape[-1]) # reshpaes the grid into a 10000x2 matrix
feature_size = inputs.shape[1] # feature_size is 2, features are the 2D coordinates of each point
input_size = inputs.shape[0] # input_size is 10000

# a simple function f(x)=2*x[0]+x[1] to regress
f = lambda x: 2 * x[0] + x[1]
label_size = 1
labels = f(inputs.transpose()).reshape(-1,1) # reshapes labels as a column vector

ph_inputs = tf.placeholder(tf.float32, shape=(None, feature_size), name='inputs')
ph_labels = tf.placeholder(tf.float32, shape=(None, label_size), name='labels')

# just one hidden layer with 16 units
hid1_size = 16
w1 = tf.Variable(tf.random_normal([hid1_size, feature_size], stddev=0.01), name='w1')
b1 = tf.Variable(tf.random_normal([hid1_size, label_size]), name='b1')
y1 = tf.nn.relu(tf.add(tf.matmul(w1, tf.transpose(ph_inputs)), b1))

# the output layer
wo = tf.Variable(tf.random_normal([label_size, hid1_size], stddev=0.01), name='wo')
bo = tf.Variable(tf.random_normal([label_size, label_size]), name='bo')
yo = tf.transpose(tf.add(tf.matmul(wo, y1), bo))

# defines optimizer and predictor
lr = tf.placeholder(tf.float32, shape=(), name='learning_rate')
loss = tf.losses.mean_squared_error(ph_labels,yo)
optimizer = tf.train.GradientDescentOptimizer(lr).minimize(loss)
predictor = tf.identity(yo)

# TRAINING 
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
_, c = sess.run([optimizer, loss], feed_dict={lr:0.05, ph_inputs: inputs, ph_labels: labels})
# TRAINING 

# gets the regression results
predictions = np.zeros((input_size,1))
for i in range(input_size):
    predictions[i] = sess.run(predictor, feed_dict={ph_inputs: inputs[i, None]}).squeeze()

# prints regression MSE
print(mean_squared_error(predictions, labels))

你说得对,你自己就明白这个问题

问题是,实际上,您只运行了一次优化步骤。因此,您只需对网络参数执行一个更新步骤,因此成本不会降低

我刚刚更改了代码的培训课程,以使其按预期工作(100个培训步骤):

在培训步骤结束时,我会:

列车步骤99损失值0.04462708160281181

0.044106700712455045


也许您应该试试@pissall,因为代码可能无法按预期工作,所以在代码审查时,这可能会偏离主题。无论哪种方式都有点不清楚,从措辞上看,我认为不清楚。
# TRAINING
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
for i in range(100):
    _, c = sess.run(
        [optimizer, loss],
        feed_dict={
            lr: 0.05,
            ph_inputs: inputs,
            ph_labels: labels
        })
    print("Train step {} loss value {}".format(i, c))
# TRAINING