Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/278.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 为什么google colab不允许我向csv文件添加数据?_Python_Pandas_Csv_Google Colaboratory - Fatal编程技术网

Python 为什么google colab不允许我向csv文件添加数据?

Python 为什么google colab不允许我向csv文件添加数据?,python,pandas,csv,google-colaboratory,Python,Pandas,Csv,Google Colaboratory,我试图在google colab中的pandas数据框中加载一个文件,然后在for循环中使用 for i in range(100): res=some_processing() df.loc[len(df)] = [i,res] df.to_csv(df) 它昨天工作正常,我昨天能够将所有值存储在csv文件中。但今天,它并没有超越索引75。有些_processing()每次大约需要10分钟。所以,我让它运行了很长时间。但是我注意到它没有存储过去25年左右的值。它只存储了多达75个

我试图在
google colab
中的
pandas数据框中加载一个文件,然后在
for循环中使用

for i in range(100):
  res=some_processing()
  df.loc[len(df)] = [i,res]
  df.to_csv(df)

它昨天工作正常,我昨天能够将所有值存储在csv文件中。但今天,它并没有超越索引75。有些_processing()每次大约需要10分钟。所以,我让它运行了很长时间。但是我注意到它没有存储过去25年左右的值。它只存储了多达75个值,不,这不是因为google colab关闭了。我检查已经完成的值,所以如果它们存在,我就跳过它们。所以,现在当我启动这个程序时,它从75开始运行,然后10分钟后,我检查了我的驱动器文件中的csv,
它写入了第76个条目。因此,我停止了程序,让它再次运行。这次它跳过了第76个条目,但又过了10分钟,当我检查csv文件时,
77个值覆盖了第76个值。现在,当我再次运行它时,第76个值重写了第77个值。因此,这种循环还在继续。我不明白为什么会这样。它昨天运行良好,我可以在需要时存储多达130个值。就像len(df)被卡住了一样。还有一件事,当我试图手动向数据帧添加值并存储它时,它也工作得很好。我不知道发生了什么事。

你是怎么跳过的?您是否从范围75运行或检查它是否存在?另外,如果我正在向数据帧添加记录,我会使用append。通过一个简单的
如果我在列表中(df['serial number']):continue