python - 如何判断 tensorflow 是否从 python shell 内部使用 gpu

我已经使用第二个答案 here 在我的 ubuntu 16.04 中安装了 tensorflow使用 ubuntu 的内置 apt cuda 安装。

现在我的问题是如何测试 tensorflow 是否真的在使用 gpu?我有一个 gtx 960m gpu。当我 import tensorflow 这是输出

I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally

这个输出是否足以检查 tensorflow 是否正在使用 gpu ?

最佳答案

不,我认为“开放 CUDA 库”不足以说明问题,因为图表的不同节点可能位于不同的设备上。

使用 tensorflow2 时:

print("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))

对于 tensorflow1,要找出使用的是哪个设备,您可以像这样启用日志设备放置:

sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))

检查您的控制台是否有此类输出。

关于python - 如何判断 tensorflow 是否从 python shell 内部使用 gpu 加速?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38009682/

相关文章:

linux - 如何在 Linux/Unix 上永久设置 $PATH

python - 一个干净、轻量级的 Python 扭曲替代品?

python - Python 中 % 的结果是什么?

python - 如何在 Windows 中同时安装 Python 2.x 和 Python 3.x

linux - 使用 ls 列出目录及其总大小

python - 解析命令行参数的最佳方法是什么?

linux - "POSIX"是什么意思?

linux - 如何使用 SSH 从服务器下载文件?

linux - 如何在终端中获取当前日期和时间并在终端中为其设置自定义命令?

python - 为什么列表没有像字典一样的安全 "get"方法?