Python 如何从DataFrame在google存储中创建Json文件?
我有以下代码(Python 2.7): 这将在我的本地项目中保存一个Python 如何从DataFrame在google存储中创建Json文件?,python,google-cloud-platform,google-cloud-storage,Python,Google Cloud Platform,Google Cloud Storage,我有以下代码(Python 2.7): 这将在我的本地项目中保存一个orders.json文件。 我希望将文件写入我在谷歌存储上的存储桶,而不是本地机器 是否可以直接将文件生成到存储器,或者我必须在本地创建文件,然后将其上载 我知道应该是这样的: from google.cloud import storage storage_client = storage.Client() bucket = storage_client.get_bucket("MyTestBucket") blob = b
orders.json
文件。
我希望将文件写入我在谷歌存储上的存储桶,而不是本地机器
是否可以直接将文件生成到存储器,或者我必须在本地创建文件,然后将其上载
我知道应该是这样的:
from google.cloud import storage
storage_client = storage.Client()
bucket = storage_client.get_bucket("MyTestBucket")
blob = bucket.blob("folderName/" + blob?!)
blob.upload_from_filename("orders.json") # Or something with writing the DataFrame?
有人能帮忙吗?我发现使用datalab.storage将数据写入Google云存储更方便
import datalab.storage as storage
import pandas as pd
# Define sample dataframe to write
df = pd.DataFrame(data=[{1,'product1','description1'},{2,'product2','description2'}],columns=['id','name','description'])
# Define your bucket and write to GCS
storage.Bucket('{your-bucket-name}').item('{folder}/{your-file}.json').write_to(df.to_json(),'text/json')
我试试看。如果{folder}不存在,这还会创建它吗?它是否也支持{folder}/{sub folder}/{your file}.json?@jack是的,它将自动创建文件夹。
import datalab.storage as storage
import pandas as pd
# Define sample dataframe to write
df = pd.DataFrame(data=[{1,'product1','description1'},{2,'product2','description2'}],columns=['id','name','description'])
# Define your bucket and write to GCS
storage.Bucket('{your-bucket-name}').item('{folder}/{your-file}.json').write_to(df.to_json(),'text/json')