Python 在已装入的blob中创建文件夹
我将我的blob容器装入azure databricks中 我可以从blob“input”读取数据 我对数据进行转换并将其存储在blob“output”中 问题:当我挂载container时,“output”blob不存在 因此,当我试图写入输出数据时,我收到了错误消息 没有这样的文件或目录:'/dbfs/mnt/data/output/file_name.xlsx' 使用Python 在已装入的blob中创建文件夹,python,azure,databricks,azure-databricks,Python,Azure,Databricks,Azure Databricks,我将我的blob容器装入azure databricks中 我可以从blob“input”读取数据 我对数据进行转换并将其存储在blob“output”中 问题:当我挂载container时,“output”blob不存在 因此,当我试图写入输出数据时,我收到了错误消息 没有这样的文件或目录:'/dbfs/mnt/data/output/file_name.xlsx' 使用/dbfs/mnt/data装入的上下文 编辑: 我用一种奇怪的方式写我的数据,我使用以下函数: def creation(
/dbfs/mnt/data
装入的上下文
编辑:
我用一种奇怪的方式写我的数据,我使用以下函数:
def creation(df_MA,file,file_path):
df_MA.to_excel(file)
shutil.copy2(file,file_path)
#copyfile(file, file_path)
os.remove(file)
使用df_MA:创建文件
文件:文件名
文件路径:/dbfs/mnt/data/output/file\u name.xlsx
函数在数据块的databrick根文件夹中写入我的df_MA,然后在我的路径中移动它
Edit2:
运动团
mount_point="/mnt/data/"
dbutils.fs.mount(
source = source,
mount_point = mount_point,
extra_configs = {"secret": dbutils.secrets.get(scope = "keyvault", key = "key")})
如何装载容器以及装载点是什么?我指的是将blob装载到databricks的步骤。不仅仅是挂载点。我使用的唯一命令是将blob挂载到databricks。。。然后我访问文件夹/data/input中的数据(例如):“df_sp=pd.read\u excel(/dbfs/mnt/data/input/ref/doc_1.xlsx,header=1)”可能您使用了错误的路径,尝试使用路径
“dbfs:/mnt/data/output/file_name.xlsx”
来读取文件。读取文件工作正常,它在容器中创建了一个新的blob,但不起作用。例如,我想创建blob“/dbfs/mnt/data/output/file_name.xlsx