Dataframe 如何将对象(.csv、.sav)上载到azure blob而不在本地保存?

Dataframe 如何将对象(.csv、.sav)上载到azure blob而不在本地保存?,dataframe,csv,azure-blob-storage,Dataframe,Csv,Azure Blob Storage,我正在尝试将.csv和.sav文件上载到azure存储,而不在本地保存。所有对象都存在于内存本身中 我尝试了BlobServiceClient,ContainerClient类,但没有找到任何方法。 在GCP中,我可以通过以下方式完成同样的工作: bucket.blob(fileName).upload_from_string(df.to_csv(index=False), 'text/csv') 在Azure中有什么方法可以做到这一点吗?根据您的代码和要求,如果您想直接以字符串形式上载.cs

我正在尝试将
.csv
.sav
文件上载到azure存储,而不在本地保存。所有对象都存在于内存本身中

我尝试了
BlobServiceClient
ContainerClient
类,但没有找到任何方法。 在GCP中,我可以通过以下方式完成同样的工作:

bucket.blob(fileName).upload_from_string(df.to_csv(index=False), 'text/csv')

在Azure中有什么方法可以做到这一点吗?

根据您的代码和要求,如果您想直接以字符串形式上载.csv文件内容,我为您编写了一个简单的演示,请尝试下面的代码:

from azure.storage.blob import BlobClient

storage_connection_string=''
container_name = 'files'
dest_file_name = 'test.csv'

blob_client = BlobClient.from_connection_string(storage_connection_string,container_name,dest_file_name)

csv_content = "name,id,department,\nstan,001,dev,\ntom,002,dev,"

blob_client.upload_blob(csv_content)
结果:

下载并以.csv格式打开:


基本上,您的服务器将生成.csv内容,您希望通过python直接将其上载到存储blob?是的,没错。现在所有的事情都在我的地方。但在稍后的阶段,它将移动到某个远程服务器,我想从那里直接上传。所以我不想依赖本地人。是的,@StanleyGong。很高兴知道我的解决方案很有帮助。请单击答案旁边的复选标记,将其从灰色切换为已填写,以将其作为答案接受,这样它将帮助其他人并关闭此查询:)