看代码吧~
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
x = tf.constant([ - 1 , - 2 ],dtype = tf.float32)
w = tf.variable([ 2. , 3. ])
truth = [ 3. , 3. ]
y = w * x
# cost=tf.reduce_sum(tf.reduce_sum(y*truth)/(tf.sqrt(tf.reduce_sum(tf.square(y)))*tf.sqrt(tf.reduce_sum(tf.square(truth)))))
cost = y[ 1 ] * y
optimizer = tf.train.gradientdescentoptimizer( 1 ).minimize(cost)
with tf.session() as sess:
sess.run(tf.global_variables_initializer())
print (sess.run(y))
print (sess.run(w))
print (sess.run(cost))
print (sess.run(y))
sess.run(optimizer)
print (sess.run(w))
|
结果如下
w由[2,3]变成[-4,-25]
过程:
f=y0*y=w0*x0*w*x=[w1*x1*w0*x0,w1*x1*w1*x1,]
f对w0求导,得w1*x0*x1+0=6 ,所以新的w0=w0-6=-4
f对w1求导,得 w0*x0*x1+2*w1*x1*x1=28,所以新的w1=w1-28=-25
补充:【tensorflow篇】--反向传播
一、前述
反向自动求导是 tensorflow 实现的方案,首先,它执行图的前向阶段,从输入到输出,去计算节点
值,然后是反向阶段,从输出到输入去计算所有的偏导。
二、具体
1、举例
图是第二个阶段,在第一个阶段中,从 x =3和 y =4开始去计算所有的节点值
f ( x / y )=x 2 * y + y + 2
求解的想法是逐渐的从图上往下,计算 f ( x , y )的偏导,使用每一个连续的节点,直到我们到达变量节
点,严重依赖链式求导法则!
2.具体过程:
因为n7是输出节点,所以f=n7,所以