没有合适的资源?快使用搜索试试~ 我知道了~
Python在用GPU跑模型的时候最好开多进程,因为很明显这种任务就是计算密集型的。 用进程池好管理,但是tensorflow默认情况会最大占用显存,尽管该任务并不需要这么多,因此我们可以设置显存的按需获取,这样程序就不会死掉了。 1. 按比例预留: tf_config = tensorflow.ConfigProto() tf_config.gpu_options.per_process_gpu_memory_fraction = 0.5 # 分配50% session = tensorflow.Session(config=tf_config) 2. 或者干脆自适应然后自动增长: t
资源详情
资源评论
资源推荐
tensorflow 限制显存大小的实现限制显存大小的实现
Python在用GPU跑模型的时候最好开多进程,因为很明显这种任务就是计算密集型的。
用进程池好管理,但是tensorflow默认情况会最大占用显存,尽管该任务并不需要这么多,因此我们可以设置显存的按需获
取,这样程序就不会死掉了。
1. 按比例预留:按比例预留:
tf_config = tensorflow.ConfigProto()
tf_config.gpu_options.per_process_gpu_memory_fraction = 0.5 # 分配50%
session = tensorflow.Session(config=tf_config)
2. 或者干脆自适应然后自动增长:或者干脆自适应然后自动增长:
tf_config = tensorflow.ConfigProto()
tf_config.gpu_options.allow_growth = True # 自适应
session = tensorflow.Session(config=tf_config)
以上这篇tensorflow 限制显存大小的实现就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软
件开发网。
您可能感兴趣的文章您可能感兴趣的文章:TensorFlow入门使用 tf.train.Saver()保存模型检测tensorflow是否使用gpu进行计算的方式tensorflow之变
量初始化(tf.Variable)使用详解将tensorflow模型打包成PB文件及PB文件读取方式Tensorflow中tf.ConfigProto()的用法详解
weixin_38704830
- 粉丝: 2
- 资源: 949
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0