分布式tensorflow

来源:互联网 发布:php h5 微信支付接口 编辑:程序博客网 时间:2024/04/30 10:15

https://www.tensorflow.org/deploy/distributed
In-graph replication.
客户端构建单独的一个tf.Graph, 其中包括一组模型参数,和模型需要大量计算部分的多个副本,每个副本指向 /job:work 里的一个不同的task
Between-graph replication
在这种方法下,每一个任务(/job:worker) 都是通过独立client单独声明的。其相互之间结构类似,每一个客户端都会建立一个相似的图结构, 其中包含的参数均通过ps 作业(/job:ps)进行声明并使用tf.train.replica_device_setter() 方法将参数映射到不同的任务中。模型中每一个独立的计算单元都会映射到/job:worker的本地的任务中。
例子:
http://blog.csdn.net/guotong1988/article/details/54972849
https://github.com/thewintersun/distributeTensorflowExample/blob/master/distribute.py
http://www.open-open.com/lib/view/open1481081238260.html

0 0
原创粉丝点击