Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/22.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux Split命令在AWS实例上非常慢_Linux_Amazon Web Services_Split_Linux Kernel - Fatal编程技术网

Linux Split命令在AWS实例上非常慢

Linux Split命令在AWS实例上非常慢,linux,amazon-web-services,split,linux-kernel,Linux,Amazon Web Services,Split,Linux Kernel,我已经在AWS实例中部署了我的应用程序,我的应用程序正在使用一些linux系统命令,这些命令是通过简单的shell脚本调用的 以下是示例脚本内容: #!/bin/bash echo "File Split started" cd /prod/data/java/ split -a 5 -l 100000000 samplefile.dat echo "File Split Completed" 实际上,相同的脚本在本地服务器上运行得更快。在本地服务器上,它需要15分钟才能完成,但在AWS实例中

我已经在AWS实例中部署了我的应用程序,我的应用程序正在使用一些linux系统命令,这些命令是通过简单的shell脚本调用的

以下是示例脚本内容:

#!/bin/bash
echo "File Split started"
cd /prod/data/java/
split -a 5 -l 100000000 samplefile.dat
echo "File Split Completed"
实际上,相同的脚本在本地服务器上运行得更快。在本地服务器上,它需要15分钟才能完成,但在AWS实例中,它需要45分钟。这是巨大的区别

更新:同样在AWS中,它没有使用更多的CPU,几乎没有2到5%的CPU,这就是它非常慢的原因

两者都是64位操作系统,本地服务器是RHEL 52.6.18,AWS是RHEL 62.6.xx

有人能帮忙吗

问候,,
Shankar

什么样的卷是/prod/data/java?您可以附加一个IO性能更好的文件。我正在拆分多个文件。。文件的总容量约为100GB700M Records不,我的意思是,什么类型的硬盘或SSD,直接连接或通过网络连接。它是SSD,文件位于同一台服务器中。它会随着时间的推移自行清除。当您设置一个新的空白卷时,或从快照分配EBS中的空间,但每个块在EBS介质上可能无法通过初始调零或从源快照复制初始化,直到每个块首次被访问。因此,它通过使用来照顾自己。用大的零填充文件填充磁盘,例如pv-pterab/dev/zero>/prod/data/java/deleteme,然后删除该文件就可以了。