Amazon web services 将大数据帧写入S3 AWS时出现内存错误
我使用amazon sagemaker创建了一个具有以下形状的数据框Amazon web services 将大数据帧写入S3 AWS时出现内存错误,amazon-web-services,amazon-s3,amazon-sagemaker,Amazon Web Services,Amazon S3,Amazon Sagemaker,我使用amazon sagemaker创建了一个具有以下形状的数据框 10612611 rows × 4 columns 都是数值。 当我试图将这个数据帧写入我的S3存储桶时,我得到了内存错误 bytes_to_write = df.to_csv(None).encode() with s3.open('aws-athena-query-results-xxxxxxx/query_result/xx.csv','wb') as f: f.write(bytes_to_write) 记
10612611 rows × 4 columns
都是数值。
当我试图将这个数据帧写入我的S3存储桶时,我得到了内存错误
bytes_to_write = df.to_csv(None).encode()
with s3.open('aws-athena-query-results-xxxxxxx/query_result/xx.csv','wb') as f:
f.write(bytes_to_write)
记忆错误:
我正在为sagemaker实例使用ml.t2.medium。我通过将实例类型从ml.t2.medium更改为ml.t2.2xlarge解决了这个问题,它工作得非常好
最初的问题是实例类型的RAM,而不是S3。我通过将实例类型从ml.t2.medium更改为ml.t2.2xlarge解决了这个问题,它工作得非常好 最初的问题是实例类型的RAM,而不是S3