Python 如何更改CUDA_缓存_MAXSIZE NVIDIA

Python 如何更改CUDA_缓存_MAXSIZE NVIDIA,python,tensorflow,deep-learning,nvidia,Python,Tensorflow,Deep Learning,Nvidia,你好,我刚买了新的RTX3080GPU。我想把Cuda用于我的tensorflow模型。但当我开始训练模型时,需要一个多小时才能开始训练。所以我去了tensorflow网站,那里说要增加CUDA_缓存的最大大小,但我不知道在哪里。有人能帮我找到它,把尺寸调大一点吗?我的GPU是10GB。谢谢 通过梳理Robert Crovella在评论部分提供的解决方案来证明答案中的解决方案 CUDA_​缓存_​MAXSIZE是一个环境变量,属于编译类别。默认值为256 MB,最大值为4 GB,您可以使用下面的

你好,我刚买了新的RTX3080GPU。我想把Cuda用于我的tensorflow模型。但当我开始训练模型时,需要一个多小时才能开始训练。所以我去了tensorflow网站,那里说要增加CUDA_缓存的最大大小,但我不知道在哪里。有人能帮我找到它,把尺寸调大一点吗?我的GPU是10GB。谢谢

通过梳理Robert Crovella在评论部分提供的解决方案来证明答案中的解决方案

CUDA_​缓存_​MAXSIZE
是一个环境变量,属于编译类别。默认值为256 MB,最大值为4 GB,您可以使用下面的路径在windows上设置此环境变量

Control Panel ->System and Security->System->Advanced System settings 

您可以按照这些(&)文档了解更多详细信息。

这是一个示例。设置环境变量的方法取决于您的操作系统(您没有指出),但是设置环境变量的说明很容易通过google发现。您还可以使用为安培GPU编译的tensorflow版本来“修复”此问题,例如现在在Hello、Im使用Windows 10和TF 2.3.1上提供的内容。当我转到环境变量时,没有cuda_cache_maxsize,我应该创建一个新的环境变量,并带有指向该变量的路径吗?我在哪里可以找到cuda_缓存_maxsize的路径?顺便说一句,我用anaconda安装了所有cuda设备。谢谢是的,您需要知道没有与之关联的路径。根据我给您的第一个链接中的说明,将环境变量设置为一个值。顺便说一句,如果设置这个变量并不能显著改善您的启动体验,我也不会感到惊讶。但是试一试。好的,谢谢!!!