Python 群集资源不足,无法启动试用版-只有0个GPU

Python 群集资源不足,无法启动试用版-只有0个GPU,python,pytorch,ray,ray-tune,Python,Pytorch,Ray,Ray Tune,我遵循教程(基本上是),以便使用光线调谐进行超参数优化。我的模型在GPU上训练得很好,没有优化,但现在我想优化 我将教程应用于我的代码,但当我尝试开始时: result=tune.run( 火车, 每个试验的资源={“gpu”:1}, config=config, 样本数=10, 调度程序=调度程序, 进步记者, 检查点\u在\u端=False, ) 我被困在: TuneError:群集资源不足,无法启动试用版:试用版请求了1个CPU、1个GPU,但群集只有6个CPU、0个GPU、12.74

我遵循教程(基本上是),以便使用光线调谐进行超参数优化。我的模型在GPU上训练得很好,没有优化,但现在我想优化

我将教程应用于我的代码,但当我尝试开始时:

result=tune.run(
火车,
每个试验的资源={“gpu”:1},
config=config,
样本数=10,
调度程序=调度程序,
进步记者,
检查点\u在\u端=False,
)
我被困在:

TuneError:群集资源不足,无法启动试用版:试用版请求了1个CPU、1个GPU,但群集只有6个CPU、0个GPU、12.74 GiB堆、4.39 GiB对象(1.0节点:XXX)

但是,当我再次查看ray仪表板时:

显然,这两个GPU都列出了

为什么ray tune没有看到我的GPU?我如何使其工作?

规格:

GPU 0: TITAN Xp
GPU 1: GeForce GTX 1080 Ti
CUDA 10.1
Python 3.7
PyTorch 1.7
Debian 9.12
ray tune 1.0.1.post1
//编辑:

ray.init(num\u gpus=1)
ray.get_gpu_id()
[]


尝试在终端上使用
ray start--head
启动ray,然后在python脚本中使用
ray.init(address='auto')
尝试在终端上使用
ray start--head启动ray,然后在python脚本中使用
ray.init(address='auto')