Tensorflow:设备CUDA:0不支持XLA服务,同时设置XLAGPGUJJIT设备号0
我在Tensorflow后端使用keras时得到了以下结果:Tensorflow:设备CUDA:0不支持XLA服务,同时设置XLAGPGUJJIT设备号0,tensorflow,keras,tensorflow-xla,Tensorflow,Keras,Tensorflow Xla,我在Tensorflow后端使用keras时得到了以下结果: ToSoFr.Python .FrrWorksIrr.ErrimoAdjMultuiRoRo:设备CUDA:XLA服务不支持0 设置XLA_GPU_JIT设备编号0时 相关代码: tfconfig = tf.ConfigProto() tfconfig.graph_options.optimizer_options.global_jit_level = tf.OptimizerOptions.ON_1 tfconfig.gpu_op
tfconfig = tf.ConfigProto()
tfconfig.graph_options.optimizer_options.global_jit_level = tf.OptimizerOptions.ON_1
tfconfig.gpu_options.allow_growth = True
K.tensorflow_backend.set_session(tf.Session(config=tfconfig))
tensorflow版本:1.14.0这可能是由于您的TF默认(即第1个)GPU内存不足。如果您有多个GPU,请将Python程序转移到其他GPU上运行。在TF中(假设使用TF-2.0-rc1),设置以下内容:
#指定要使用的GPU
操作系统环境[“CUDA_可见设备”]=“1”或2、3等,而不是0
#关于CPU/GPU的布局
config=tf.compat.v1.ConfigProto(允许软放置=True,日志设备放置=True)
config.gpu\u options.allow\u growth=True
tf.compat.v1.Session(config=config)
#请注意,ConfigProto在TF-2.0中消失了
但是,假设您的环境只有一个GPU,那么您可能别无选择,只能让您的好友停止他的程序,然后请他喝杯咖啡。郭主席的代码:
os.environ["CUDA_VISIBLE_DEVICES"] = "1"
解决了jupyter笔记本内核在以下位置崩溃的问题:
tf.keras.models.load_model(path/to/my/model)
致命信息是:
2020-01-26 11:31:58.727326:F
tensorflow/stream_executor/lib/statusor.cc:34]正在尝试获取
值而不是处理内部错误:初始化失败
CUDA设备的StreamExecutor序号0:内部:调用失败
cuDevicePrimaryCtxRetain:CUDA\u错误\u未知:未知错误
我的TF版本是:2.2.0-dev20200123。此系统上有2个GPU。我遇到了同样的问题,您的解决方案解决了这个问题。非常感谢你!