Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/elixir/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
R 在不涉及循环的情况下,在长过程中将数据帧切点到磁盘_R - Fatal编程技术网

R 在不涉及循环的情况下,在长过程中将数据帧切点到磁盘

R 在不涉及循环的情况下,在长过程中将数据帧切点到磁盘,r,R,我在R中有一个很长的过程,我想每次保存工作结果数据帧 这里并没有涉及循环,所以您不能使用计数器或迭代器来显式表示写入磁盘的条件 有很多情况下,您可能需要将进度数据帧保存到磁盘,例如,使用ggmap包获取一个包含位置、街道+城市+邮政编码的大型数据集,以获取Lat/Lon df<- mutate_geocode(long.data, location) ....long time..... write.table(df, file = "my_result.csv") 结果

我在R中有一个很长的过程,我想每次保存工作结果数据帧

这里并没有涉及循环,所以您不能使用计数器或迭代器来显式表示写入磁盘的条件

有很多情况下,您可能需要将进度数据帧保存到磁盘,例如,使用ggmap包获取一个包含位置、街道+城市+邮政编码的大型数据集,以获取Lat/Lon

    df<- mutate_geocode(long.data, location)
....long time.....
    write.table(df, file = "my_result.csv")
结果数据帧仅在进程结束时写入磁盘。 问题是,有时我的笔记本电脑会被冻结,谷歌地图的限制是每天2.500个查询,所以我的工作会丢失,因为它没有保存到磁盘上。你必须从头开始整个过程

这是一个非常普遍的问题,因此没有提供样本数据

如果不涉及循环,在R中是否有任何方法将我的工作检查到磁盘


谢谢

猜猜如果将数据拆分为较小的数据帧(比如说100行)并在所有数据帧中循环,但每行都保存到磁盘,最后全部堆叠?

我宁愿保留一个大df。我想到了你的把戏,但可以说不太好看