python - tensorflow的slim有分布式版本吗?

标签 python c++ tensorflow distributed-computing grpc

model_deploy slim的有DeploymentConfig参数,比如num_replicasnum_ps_tasksworker_job_nameps_job_name,这些名词可能出现在distributed版本,但我不认为 model_deploy 是分布式版本,因为它没有声明 tf.train.ClusterSpec

所以我看不懂model_deploy,难道是想在单机上模拟分布式版本?而在单机上,psworker是什么意思呢?还有tf.device的名字,比如/job:ps/device:CPU:0/task:0/job:ps<是什么硬件 ans /task:0 对应于 ?

最佳答案

您可以在单机和分布式设置中调用 model_deploy。如果您只有一台机器,我建议设置 num_ps_tasks=0 和 num_replicas=1 以获得正确的行为。

关于python - tensorflow的slim有分布式版本吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46588829/

相关文章:

python - namedtuple 的相等重载

c++ - 在 C++ 中,为什么循环目录依赖性不好?

python - Tensorflow flatten vs numpy flatten 函数对机器学习训练的影响

python - 这是什么意思?

python - 使用 python 求解非方阵 A 的 Ax =b

使用 -> 运算符后 C++ 程序崩溃

c++ - 使用 OCCI 在 Oracle 数据库中插入多行

python - 何时使用 tensorflow 估计器?

python - tensorflow 随机值在单次运行中是否保证相同?

python - scgi和wsgi有什么区别?