我已经使用第二个答案 here 在我的 ubuntu 16.04 中安装了 tensorflow使用 ubuntu 的内置 apt cuda 安装。
现在我的问题是如何测试 tensorflow 是否真的在使用 gpu?我有一个 gtx 960m gpu。当我 import tensorflow
这是输出
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
这个输出是否足以检查 tensorflow 是否正在使用 gpu ?
最佳答案
不,我认为“开放 CUDA 库”不足以说明问题,因为图表的不同节点可能位于不同的设备上。
使用 tensorflow2 时:
print("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))
对于 tensorflow1,要找出使用的是哪个设备,您可以像这样启用日志设备放置:
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
检查您的控制台是否有此类输出。
关于python - 如何判断 tensorflow 是否从 python shell 内部使用 gpu 加速?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38009682/