Python 从培训脚本访问AML数据存储上的数据
我正在寻找一个如何从train.py脚本中访问数据库上的数据的工作示例。我按照链接中的说明操作,我的脚本能够解析数据存储 然而,无论我尝试了什么(Python 从培训脚本访问AML数据存储上的数据,python,azure,azure-machine-learning-service,Python,Azure,Azure Machine Learning Service,我正在寻找一个如何从train.py脚本中访问数据库上的数据的工作示例。我按照链接中的说明操作,我的脚本能够解析数据存储 然而,无论我尝试了什么(as_download(),as_mount()),我总是得到的唯一东西就是一个对象。或者我只是不明白如何用它从文件中读取数据 run = Run.get_context() exp = run.experiment ws = run.experiment.workspace ds = Datastore.get(ws, datastore_name
as_download(),as_mount()
),我总是得到的唯一东西就是一个对象。或者我只是不明白如何用它从文件中读取数据
run = Run.get_context()
exp = run.experiment
ws = run.experiment.workspace
ds = Datastore.get(ws, datastore_name='mydatastore')
data_folder_mount = ds.path('mnist').as_mount()
# So far this all works. But how to go from here?
您可以将创建的DataReference对象作为输入传入培训产品(scriptrun/estimator/hyperdrive/pipeline)。然后在训练脚本中,可以通过参数访问挂载路径。
完整教程:我一直使用这些数据引用作为
脚本参数
变量中的变量来创建估算器对象,如中所示。当你说“access”时,你的目的是在本地下载内容吗?也许这个问题与这里的OP类似(但不是重复?)。将数据从数据存储下载到本地目录,请参考以下链接()谢谢@Ram,但你的链接指的是CLI,我正在寻找有关python SDK的指导!在此期间,我使用本教程使其工作正常:但无论如何,我会接受您的答案