Amazon ec2 所需的最小Cuda能力为3.5

Amazon ec2 所需的最小Cuda能力为3.5,amazon-ec2,tensorflow,Amazon Ec2,Tensorflow,在g2.2xlarge EC2实例上安装TensorFlow及其依赖项后,我尝试从“入门”页面运行MNIST示例: python tensorflow/models/image/mnist/convolutional.py 但我得到以下警告: I tensorflow/core/common_runtime/gpu/gpu_device.cc:611] Ignoring gpu device (device: 0, name: GRID K520, pci bus id: 0000:00:0

在g2.2xlarge EC2实例上安装TensorFlow及其依赖项后,我尝试从“入门”页面运行MNIST示例:

python tensorflow/models/image/mnist/convolutional.py
但我得到以下警告:

I tensorflow/core/common_runtime/gpu/gpu_device.cc:611] Ignoring gpu device 
(device: 0, name: GRID K520, pci bus id: 0000:00:03.0) with Cuda compute 
capability 3.0. The minimum required Cuda capability is 3.5.

这是一个硬性要求吗?我能评论一下TensorFlow的分支吗?能够在AWS中训练模型将是非常好的。

目前官方只支持计算能力>=3.5的GPU。然而,GitHub user@infojunkie提供了一个可以将TensorFlow与计算能力为3.0的GPU结合使用的平台

官方修复正在开发中。同时,查看有关添加此支持的讨论。

中有一节指导您启用Cuda 3,但您需要从源代码构建Tensorflow

$ TF_UNOFFICIAL_SETTING=1 ./configure

# Same as the official settings above

WARNING: You are configuring unofficial settings in TensorFlow. Because some
external libraries are not backward compatible, these settings are largely
untested and unsupported.

Please specify a list of comma-separated Cuda compute capabilities you want to
build with. You can find the compute capability of your device at:
https://developer.nvidia.com/cuda-gpus.
Please note that each additional compute capability significantly increases
your build time and binary size. [Default is: "3.5,5.2"]: 3.0

Setting up Cuda include
Setting up Cuda lib64
Setting up Cuda bin
Setting up Cuda nvvm
Configuration finished

有一个简单的窍门。您甚至不必从源代码构建TF

在文件
tensorflow\python\\u pywrap\u tensorflow.pyd
中出现了两个regex
3\.5.*.5\.2
。只需将两个
3.5
替换为
3.0


在Windows 10、Anaconda 4.2.13、Python 3.5.2、TensorFlow 0.12、CUDA 8、NVidia GTX 660m(CUDA cap.3.0)上测试。

我们只测试了计算能力>=3.5的TensorFlow。有几个人要求支持3.0,这已经在我们的雷达上了:请看这里关于GitHub问题的讨论,该文件位于哪里?我只看到一个_pywrap _tensorflow _internalfile@theninjagreg根据,您可以按照_pywrap_tensorflow_internal.pyd文件的过程进行操作。我的解决方案是TF0.12(现在非常古老),该文件可能在下一个版本中被重命名,但是这个技巧应该仍然有效。