Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 将大数据帧写入S3 AWS时出现内存错误_Amazon Web Services_Amazon S3_Amazon Sagemaker - Fatal编程技术网

Amazon web services 将大数据帧写入S3 AWS时出现内存错误

Amazon web services 将大数据帧写入S3 AWS时出现内存错误,amazon-web-services,amazon-s3,amazon-sagemaker,Amazon Web Services,Amazon S3,Amazon Sagemaker,我使用amazon sagemaker创建了一个具有以下形状的数据框 10612611 rows × 4 columns 都是数值。 当我试图将这个数据帧写入我的S3存储桶时,我得到了内存错误 bytes_to_write = df.to_csv(None).encode() with s3.open('aws-athena-query-results-xxxxxxx/query_result/xx.csv','wb') as f: f.write(bytes_to_write) 记

我使用amazon sagemaker创建了一个具有以下形状的数据框

10612611 rows × 4 columns
都是数值。 当我试图将这个数据帧写入我的S3存储桶时,我得到了内存错误

bytes_to_write = df.to_csv(None).encode()
with s3.open('aws-athena-query-results-xxxxxxx/query_result/xx.csv','wb') as f:
    f.write(bytes_to_write)
记忆错误:


我正在为sagemaker实例使用ml.t2.medium

我通过将实例类型从ml.t2.medium更改为ml.t2.2xlarge解决了这个问题,它工作得非常好


最初的问题是实例类型的RAM,而不是S3。

我通过将实例类型从ml.t2.medium更改为ml.t2.2xlarge解决了这个问题,它工作得非常好

最初的问题是实例类型的RAM,而不是S3