Amazon ec2 Can';t解压缩csv:“;设备上没有剩余空间“;,但是使用EC2 m3.2x大吗?

Amazon ec2 Can';t解压缩csv:“;设备上没有剩余空间“;,但是使用EC2 m3.2x大吗?,amazon-ec2,gzip,diskspace,Amazon Ec2,Gzip,Diskspace,我正在尝试解压缩EC2实例上的csv文件。这个实例应该足够大,所以我猜它与分区有关,但我对这方面还不太熟悉,不太了解我找到的帖子和它们是否适用于我。(我没有使用Hadoop,也没有完整的“/tmp”文件夹)。.csv.gz文件为1.6 GB,解压缩后应为14 GB。执行gzip-d data.csv.gz,我得到错误gzip:data.csv:设备上没有剩余空间,并且df-h显示: 已使用的文件系统大小可用率已安装% /dev/xvda1 7.8G 2.8G 5.0G 36%/ devtmpfs

我正在尝试解压缩EC2实例上的csv文件。这个实例应该足够大,所以我猜它与分区有关,但我对这方面还不太熟悉,不太了解我找到的帖子和它们是否适用于我。(我没有使用Hadoop,也没有完整的“/tmp”文件夹)。.csv.gz文件为1.6 GB,解压缩后应为14 GB。执行
gzip-d data.csv.gz
,我得到错误
gzip:data.csv:设备上没有剩余空间
,并且
df-h
显示:

已使用的文件系统大小可用率已安装%
/dev/xvda1 7.8G 2.8G 5.0G 36%/
devtmpfs 15G 56K 15G 1%/dev
tmpfs 15G 0 15G 0%/dev/shm


谢谢你的帮助

您的根驱动器(/dev/xvda1)有5GB的可用空间。试着在
/dev/shm
中运行它好的。我不确定“tmpfs”是什么,所以我不想搞砸它。我没有意识到分配给更大实例的存储不会在根目录中,更糟糕的是,据我所知,不会在目录结构中的任何地方。我意识到您必须制作和附加卷,然后装载它们。(如果有其他方法,请纠正我)我仍在学习,但我会将此评论留给其他无知的初学者。