当前位置: 首页 > news >正文

phpcms 网站源码奉化市建设局网站

phpcms 网站源码,奉化市建设局网站,小牛加速器,wordpress加微信插件简介 Tensorflow API提供了Cluster、Server以及Supervisor来支持模型的分布式训练。 关于Tensorflow的分布式训练介绍可以参考Distributed Tensorflow。简单的概括说明如下#xff1a; Tensorflow分布式Cluster由多个Task组成#xff0c;每个Task对应一个tf.train.Server实例…简介 Tensorflow API提供了Cluster、Server以及Supervisor来支持模型的分布式训练。 关于Tensorflow的分布式训练介绍可以参考Distributed Tensorflow。简单的概括说明如下 Tensorflow分布式Cluster由多个Task组成每个Task对应一个tf.train.Server实例作为Cluster的一个单独节点多个相同作用的Task可以被划分为一个job例如ps job作为参数服务器只保存Tensorflow model的参数而worker job则作为计算节点只执行计算密集型的Graph计算。Cluster中的Task会相对进行通信以便进行状态同步、参数更新等操作。Tensorflow分布式集群的所有节点执行的代码是相同的。分布式任务代码具有固定的模式 # 第1步命令行参数解析获取集群的信息ps_hosts和worker_hosts以及当前节点的角色信息job_name和task_index# 第2步创建当前task结点的Server cluster tf.train.ClusterSpec({ps: ps_hosts, worker: worker_hosts}) server tf.train.Server(cluster, job_nameFLAGS.job_name, task_indexFLAGS.task_index)# 第3步如果当前节点是ps则调用server.join()无休止等待如果是worker则执行第4步。 if FLAGS.job_name ps:server.join()# 第4步则构建要训练的模型 # build tensorflow graph model# 第5步创建tf.train.Supervisor来管理模型的训练过程 # Create a supervisor, which oversees the training process. sv tf.train.Supervisor(is_chief(FLAGS.task_index 0), logdir/tmp/train_logs) # The supervisor takes care of session initialization and restoring from a checkpoint. sess sv.prepare_or_wait_for_session(server.target) # Loop until the supervisor shuts down while not sv.should_stop()# train model   Tensorflow分布式训练代码框架 根据上面说到的Tensorflow分布式训练代码固定模式如果要编写一个分布式的Tensorlfow代码其框架如下所示。 import tensorflow as tf# Flags for defining the tf.train.ClusterSpec tf.app.flags.DEFINE_string(ps_hosts, ,Comma-separated list of hostname:port pairs) tf.app.flags.DEFINE_string(worker_hosts, ,Comma-separated list of hostname:port pairs)# Flags for defining the tf.train.Server tf.app.flags.DEFINE_string(job_name, , One of ps, worker) tf.app.flags.DEFINE_integer(task_index, 0, Index of task within the job)FLAGS tf.app.flags.FLAGSdef main(_):ps_hosts FLAGS.ps_hosts.split(,)worker_hosts FLAGS.worker_hosts(,)# Create a cluster from the parameter server and worker hosts.cluster tf.train.ClusterSpec({ps: ps_hosts, worker: worker_hosts})# Create and start a server for the local task.server tf.train.Server(cluster,job_nameFLAGS.job_name,task_indexFLAGS.task_index)if FLAGS.job_name ps:server.join()elif FLAGS.job_name worker:# Assigns ops to the local worker by default.with tf.device(tf.train.replica_device_setter(worker_device/job:worker/task:%d % FLAGS.task_index,clustercluster)):# Build model...loss ...global_step tf.Variable(0)train_op tf.train.AdagradOptimizer(0.01).minimize(loss, global_stepglobal_step)saver tf.train.Saver()summary_op tf.merge_all_summaries()init_op tf.initialize_all_variables()# Create a supervisor, which oversees the training process.sv tf.train.Supervisor(is_chief(FLAGS.task_index 0),logdir/tmp/train_logs,init_opinit_op,summary_opsummary_op,saversaver,global_stepglobal_step,save_model_secs600)# The supervisor takes care of session initialization and restoring from# a checkpoint.sess sv.prepare_or_wait_for_session(server.target)# Start queue runners for the input pipelines (if any).sv.start_queue_runners(sess)# Loop until the supervisor shuts down (or 1000000 steps have completed).step 0while not sv.should_stop() and step 1000000:# Run a training step asynchronously.# See tf.train.SyncReplicasOptimizer for additional details on how to# perform *synchronous* training._, step sess.run([train_op, global_step])if __name__ __main__:tf.app.run() 对于所有Tensorflow分布式代码可变的只有两点 构建tensorflow graph模型代码每一步执行训练的代码分布式MNIST任务 我们通过修改tensorflow/tensorflow提供的mnist_softmax.py来构造分布式的MNIST样例来进行验证。修改后的代码请参考mnist_dist.py。 我们同样通过tensorlfow的Docker image来启动一个容器来进行验证。 $ docker run -d -v /path/to/your/code:/tensorflow/mnist --name tensorflow tensorflow/tensorflow 启动tensorflow之后启动4个Terminal然后通过下面命令进入tensorflow容器切换到/tensorflow/mnist目录下 $ docker exec -ti tensorflow /bin/bash $ cd /tensorflow/mnist 然后在四个Terminal中分别执行下面一个命令来启动Tensorflow cluster的一个task节点 # Start ps 0 python mnist_dist.py --ps_hostslocalhost:2221,localhost:2222 --worker_hostslocalhost:2223,localhost:2224 --job_nameps --task_index0# Start ps 1 python mnist_dist.py --ps_hostslocalhost:2221,localhost:2222 --worker_hostslocalhost:2223,localhost:2224 --job_nameps --task_index1# Start worker 0 python mnist_dist.py --ps_hostslocalhost:2221,localhost:2222 --worker_hostslocalhost:2223,localhost:2224 --job_nameworker --task_index0# Start worker 1 python mnist_dist.py --ps_hostslocalhost:2221,localhost:2222 --worker_hostslocalhost:2223,localhost:2224 --job_nameworker --task_index1 具体效果自己验证哈。
http://www.pierceye.com/news/540827/

相关文章:

  • 中小企业为什么要建网站wordpress特效 插件推荐
  • 好的门户网站龙南建设局网站
  • 深圳住房和建设局官网网站设计导航精选最好的设计网站大全
  • 个人备案网站建设方案书网站开发实训教程
  • 周口网站关键词优化重庆招商网
  • 国内优秀网站设计师江西宜春市城市建设档案馆网站
  • 怎么查看网站用的php还是.networdpress博客页修改
  • 企业查询网站wordpress注册没反应
  • 如何建立自已的购物网站长沙网站制作主要公司
  • 深圳 电子政务网站建设方案WordPress的login在哪里改
  • 网站快速网站推广怎么制作图片视频和配音乐
  • 河南网站制作团队湖南网址大全
  • 2019为网站网站做代理被判缓刑网站信息化建设建议
  • 部署推进网站建设网站域名费用
  • 企业信息门户网站建设方案seo网站模版
  • 谷歌有做网站建设快速建站哪里好
  • 坤和建设 网站深圳高端网站设计开发
  • 怎么做网站策划的模板如何注册咨询公司
  • 做婚恋网站投入多少钱php注册网站源码带数据库
  • 苏州网站建设制作方案手机上做app的软件
  • 青岛营销型网站html网页制作期末作业
  • 加强网站微信公众号平台建设php 5.4 wordpress
  • 比价网站开发东莞微客巴巴做网站
  • 怎么免费搭建自己的网站交互网站建设
  • 网站架构 规划考研网站做刷词
  • 昆山网站建设kshuituo适合seo优化的站点
  • 免费十八种禁用网站圣诞网站怎么做
  • 做网站排名赚钱吗安卓开发快速入门
  • 南宁百度网站建设求个网站或者软件
  • 岳阳网站项目建设报道网站建设色调的