Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/78.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
下载非常大的docker图像时出现的问题_R_Caching_Docker_Pull_Kaggle - Fatal编程技术网

下载非常大的docker图像时出现的问题

下载非常大的docker图像时出现的问题,r,caching,docker,pull,kaggle,R,Caching,Docker,Pull,Kaggle,我只是想,缓存就是解决方案 我正试图下载一个非常大的文件,但速度稍慢,连接不稳定。今天,我设法以非常高的财务成本和太多的时间下载了12GB。它在获得大约10GB(由于下雨)后成功地失败了。当下载失败时,使用正常命令(如下),我必须从头开始。有人知道用当前的软件做这件事的更好方法吗?我正在使用Mac OSX Sierra和最新版本的Docker 命令:docker-run--rm-it-kaggle/rstats您看到docker-daemon首选项了吗?您可以提高每次拉取的最大并发下载量。请参见

我只是想,缓存就是解决方案

我正试图下载一个非常大的文件,但速度稍慢,连接不稳定。今天,我设法以非常高的财务成本和太多的时间下载了12GB。它在获得大约10GB(由于下雨)后成功地失败了。当下载失败时,使用正常命令(如下),我必须从头开始。有人知道用当前的软件做这件事的更好方法吗?我正在使用Mac OSX Sierra和最新版本的Docker


命令:
docker-run--rm-it-kaggle/rstats

您看到docker-daemon首选项了吗?您可以提高每次拉取的最大并发下载量。请参见此处:并搜索
--最大并发下载量
我能想到的一个可能的解决方案是使用服务器将图像保存到tar文件,然后使用系统上的下载管理器下载图像,然后导入图像。谢谢。我没想到。让我想个办法。