将模型部署到AKS PipelineModel.load时抛出org.apache.hadoop.mapred.InvalidInputException

将模型部署到AKS PipelineModel.load时抛出org.apache.hadoop.mapred.InvalidInputException,hadoop,pyspark,azure-aks,azureml,Hadoop,Pyspark,Azure Aks,Azureml,我正在尝试将模型部署到AKS。我正在使用AML SDK在AML工作区中注册模型。我正在使用PipelineModel模块保存模型。我正在尝试使用PipelineModel.load加载模型。我的输入脚本如下所示: ` 导入操作系统 导入json 作为pd进口熊猫 从azureml.core.model导入模型 从pyspark.ml导入PipelineModel 从mmlspark导入ComputeModelStatistics def初始化: 导入mmlspark加载mmlspark库时需要此

我正在尝试将模型部署到AKS。我正在使用AML SDK在AML工作区中注册模型。我正在使用PipelineModel模块保存模型。我正在尝试使用PipelineModel.load加载模型。我的输入脚本如下所示:

` 导入操作系统 导入json 作为pd进口熊猫

从azureml.core.model导入模型 从pyspark.ml导入PipelineModel 从mmlspark导入ComputeModelStatistics

def初始化: 导入mmlspark加载mmlspark库时需要此选项 导入日志记录

# extract and load model
global model, model_path
model_path = Model.get_model_path("{model_name}")
print(model_path)
print(os.stat(model_path))
print(os.path.exists(model_path))
#model_path = os.path.join(os.getenv("AZUREML_MODEL_DIR"), "{model_name}")
logging.basicConfig(level=logging.DEBUG)
#print(model_path)
#with ZipFile(model_path, 'r') as f:
#    f.extractall('model')
model = PipelineModel.load(model_path)
#model = PipelineModel.read().load(model_path)
def runinput_json: 尝试: output_df=model.transformpd.read_jsoninput_json evaluator=ComputeModelStatistics.SetCoredLabelColPrediction.setLabelCollabel.setEvaluationMetricAUC 结果=evaluator.com auc=result.selectAUC.collect[0][0] 结果=auc 例外情况除外,如e: 结果=应力

return json.dumps({{"result": result}})
`

它给出的错误如下所示:

org.apache.hadoop.mapred.InvalidInputException:输入路径不存在:文件:/var/azureml app/azureml models/lightgbm.model/2/lightgbm.model/metadata\n\tat org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatusFileInputFormat.java:287\n\tat org.apache.hadoop.mapred.FileInputFormat.listStatusFileInputFormat.java:229\n\tatorg.apache.hadoop.mapred.FileInputFormat.getSplitsFileInputFormat.java:315

os.path.exists返回从Model.get\u Model\u path获取的路径为true

我是不是遗漏了什么