Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/294.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何从DataFrame在google存储中创建Json文件?_Python_Google Cloud Platform_Google Cloud Storage - Fatal编程技术网

Python 如何从DataFrame在google存储中创建Json文件?

Python 如何从DataFrame在google存储中创建Json文件?,python,google-cloud-platform,google-cloud-storage,Python,Google Cloud Platform,Google Cloud Storage,我有以下代码(Python 2.7): 这将在我的本地项目中保存一个orders.json文件。 我希望将文件写入我在谷歌存储上的存储桶,而不是本地机器 是否可以直接将文件生成到存储器,或者我必须在本地创建文件,然后将其上载 我知道应该是这样的: from google.cloud import storage storage_client = storage.Client() bucket = storage_client.get_bucket("MyTestBucket") blob = b

我有以下代码(Python 2.7):

这将在我的本地项目中保存一个
orders.json
文件。 我希望将文件写入我在谷歌存储上的存储桶,而不是本地机器

是否可以直接将文件生成到存储器,或者我必须在本地创建文件,然后将其上载

我知道应该是这样的:

from google.cloud import storage
storage_client = storage.Client()
bucket = storage_client.get_bucket("MyTestBucket")
blob = bucket.blob("folderName/" + blob?!)
blob.upload_from_filename("orders.json")  # Or something with writing the DataFrame?

有人能帮忙吗?

我发现使用datalab.storage将数据写入Google云存储更方便

import datalab.storage as storage
import pandas as pd

# Define sample dataframe to write
df = pd.DataFrame(data=[{1,'product1','description1'},{2,'product2','description2'}],columns=['id','name','description'])

# Define your bucket and write to GCS
storage.Bucket('{your-bucket-name}').item('{folder}/{your-file}.json').write_to(df.to_json(),'text/json')

我试试看。如果{folder}不存在,这还会创建它吗?它是否也支持{folder}/{sub folder}/{your file}.json?@jack是的,它将自动创建文件夹。
import datalab.storage as storage
import pandas as pd

# Define sample dataframe to write
df = pd.DataFrame(data=[{1,'product1','description1'},{2,'product2','description2'}],columns=['id','name','description'])

# Define your bucket and write to GCS
storage.Bucket('{your-bucket-name}').item('{folder}/{your-file}.json').write_to(df.to_json(),'text/json')