按照tenserflow的官网线性回归问题的demo输入了代码,运行之后发现官方在该demo中使用的损失函数其实是有问题的,如果每次训练的数据一多就不能很好的训练了
# loss
loss = tf.reduce_sum(tf.square(linear_model - y)) # sum of the squares
该损失函数的意思是 规约求和 (求平方(模式输出值 - 实际值))
经过试验发现在线性模型的训练中用tf.reduce_mean代替tf.reduce_sum效果更好
按照tenserflow的官网线性回归问题的demo输入了代码,运行之后发现官方在该demo中使用的损失函数其实是有问题的,如果每次训练的数据一多就不能很好的训练了
# loss
loss = tf.reduce_sum(tf.square(linear_model - y)) # sum of the squares
该损失函数的意思是 规约求和 (求平方(模式输出值 - 实际值))
经过试验发现在线性模型的训练中用tf.reduce_mean代替tf.reduce_sum效果更好