函数:tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)
功能:这个函数的作用是计算 logits
经 softmax 函数激活之后的交叉熵
实例:
inputdata = tf.Variable([[0.2, 0.1, 0.9]], dtype=np.float32)
output = tf.nn.softmax_cross_entropy_with_logits(logits=inputdata, labels = [[1.0, 0.0, 0.0]])
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print (sess.run(inputdata))
print (sess.run(output))
输出:
[[ 0.2 0.1 0.89999998]]
[ 1.36573195]