Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/284.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在Python中创建大型随机内容文件_Python_Python 3.x_Python 2.7_Solid State Drive - Fatal编程技术网

在Python中创建大型随机内容文件

在Python中创建大型随机内容文件,python,python-3.x,python-2.7,solid-state-drive,Python,Python 3.x,Python 2.7,Solid State Drive,我正在研究SSD驱动器的特性,以确定最大TBW/预期寿命 目前,我正在使用BASH生成500MB的随机(非零)内容文件: dd if=<(openssl enc -aes-128-cbc -pass pass:"$(dd if=/dev/urandom bs=128 count=1 2>/dev/null | base64)" -nosalt < /dev/zero) of=/media/m2_adv3d/abc${stamp1} bs=1MB count=500 iflag=

我正在研究SSD驱动器的特性,以确定最大TBW/预期寿命

目前,我正在使用BASH生成500MB的随机(非零)内容文件:

dd if=<(openssl enc -aes-128-cbc -pass pass:"$(dd if=/dev/urandom bs=128 count=1 2>/dev/null | base64)" -nosalt < /dev/zero) of=/media/m2_adv3d/abc${stamp1} bs=1MB count=500 iflag=fullblock&

Note : {stamp1} is a time stamp for ensuring unique file names.
有点怀疑这是否真的足够好来强调SSD。基本上是无限循环这个;驱动器满后,删除到最旧的文件并写入新文件,并每写入500个文件收集智能数据,以显示老化趋势

想法

谢谢


丹。

你可以试试这么简单的东西

import pandas as pd
import numpy as np

rows = 100000
cols = 10000

table_size = [rows,cols]

x = np.ones(table_size)
pd.DataFrame(x).to_csv(path)

您可以更新表格大小,使其变大或变小。我不确定这是否比您已经尝试的更有效。

os.uradom选项最适合生成大型随机文件

如果您编辑问题以显示希望加速的代码,人们可能会提出改进建议。如果看不到现有代码,很难回答。感谢@holdenweb;用代码更新。一个想法是:由于IO操作肯定需要时间,所以线程或异步解决方案允许在编写最后一个随机块时生成新的随机块,可能会加快速度。@holdenweb;谢谢你的建议。尝试线程化并受到性能影响。。。虽然我似乎能够以3~5秒的速度连续写入500MB的文件(线性);当我尝试使用线程并行执行两个任务时,我的时间在10~17秒之间。。。更接近17秒。将发布代码以供参考,并关闭此代码。谢谢尝试不同的方法(见上面编辑的问题)。
import pandas as pd
import numpy as np

rows = 100000
cols = 10000

table_size = [rows,cols]

x = np.ones(table_size)
pd.DataFrame(x).to_csv(path)