tensorflow如何自由处理梯度
来源:互联网 发布:网络稳定查询 编辑:程序博客网 时间:2024/09/21 08:17
本文的由来是因为我想使用一个step function作为我的loss function,但是直接使用会导致gradient不能计算,而之前在看tensorflow相关文档时,发现minimize可看作compute_gradients和apply_gradients二者之和,换言之,我们可以先计算gradients,进行处理后,再apply_gradients.
本来一开始打算自己去实现的,但由于tensorflow刚入门,碰了很多壁,最后在知乎上搜索时搜到分布式Tensorflow的梯度累积与异步更新,看到里面的代码,才弄明白该怎么弄
定义
1
gradient_all = optimizer.compute_gradients(loss)
计算全部gradient
2
grads_vars = [v for (g,v) in gradient_all if g is not None]
得到可进行梯度计算的变量
3
gradient = optimizer.compute_gradients(loss, grads_vars)
得到所需梯度
4
grads_holder = [(tf.placeholder(tf.float32, shape=g.get_shape()), v) for (g,v) in gradient]
生成holder
5
train_op = optimizer.apply_gradients(grads_holder)
继续进行BP算法
应用
1
gradient_result = sess.run(gradient, feed_dict={x:x_i,y_:y_real})
生成结果,计算loss与gradient
2
grads_dict={}
for i in range(len(gradient_result)):
k = grads_holder[i][0] # 取出holder,用于后面的feed_dict
grads_dict[k] = DealTheGradientFunction(gradient_result[i][0]) # 自由处理梯度
3
_ = sess.run(train_op,feed_dict=grads_dict)
继续更新权值
- tensorflow如何自由处理梯度
- 如何在tensorflow程序中对梯度进行反转
- tensorflow自定义op:梯度
- TensorFlow梯度求解tf.gradients
- Tensorflow的梯度异步更新
- tensorflow中optimizer如何实现神经网络的权重,偏移等系数的更新和梯度计算
- 图像处理之梯度
- 图像处理中的梯度
- 如何像用MNIST一样来用ImageNet?这里有一份加速TensorFlow分布式训练的梯度压缩指南
- 线性回归、梯度下降算法与 tensorflow
- tensorflow之路-如何处理原始文本数据
- tensorflow之路-如何处理原始文本数据
- 如何理解梯度下降?
- 如何避免梯度爆炸梯度消失
- 图像处理中的梯度、导数如何求?(Robert算子,Sobel算子,Prewitt算子,Laplace算子)
- 图像处理中的梯度、导数如何求?(Robert算子,Sobel算子,Prewitt算子,Laplace算子)
- 图像处理中的梯度、导数如何求?(Robert算子,Sobel算子,Prewitt算子,Laplace算子)
- 【ML】在梯度下降法中,误差函数是局部最小如何处理
- Cube Mapping及其应用之一:天空盒的实现
- js数组
- 使用sublimeText3编译less后css被压缩解决办法
- 在中国,为什么只有坏人才敢做好事
- androoid framework学习之ContentProvider组件(很不错)
- tensorflow如何自由处理梯度
- iscsi网络存储之-linux客户端自动加载分区
- 【HTML学习】关于DTD的文档声明
- [生存志] 第89节 太公阴符天人之道
- php实现数字验证码
- [Java并发包学习六]Semaphore介绍
- android 开发app下载
- iOS 常用方法
- MySQL使用limit 1提高sql查询效率