将模型部署到AKS PipelineModel.load时抛出org.apache.hadoop.mapred.InvalidInputException
我正在尝试将模型部署到AKS。我正在使用AML SDK在AML工作区中注册模型。我正在使用PipelineModel模块保存模型。我正在尝试使用PipelineModel.load加载模型。我的输入脚本如下所示: ` 导入操作系统 导入json 作为pd进口熊猫 从azureml.core.model导入模型 从pyspark.ml导入PipelineModel 从mmlspark导入ComputeModelStatistics def初始化: 导入mmlspark加载mmlspark库时需要此选项 导入日志记录将模型部署到AKS PipelineModel.load时抛出org.apache.hadoop.mapred.InvalidInputException,hadoop,pyspark,azure-aks,azureml,Hadoop,Pyspark,Azure Aks,Azureml,我正在尝试将模型部署到AKS。我正在使用AML SDK在AML工作区中注册模型。我正在使用PipelineModel模块保存模型。我正在尝试使用PipelineModel.load加载模型。我的输入脚本如下所示: ` 导入操作系统 导入json 作为pd进口熊猫 从azureml.core.model导入模型 从pyspark.ml导入PipelineModel 从mmlspark导入ComputeModelStatistics def初始化: 导入mmlspark加载mmlspark库时需要此
# extract and load model
global model, model_path
model_path = Model.get_model_path("{model_name}")
print(model_path)
print(os.stat(model_path))
print(os.path.exists(model_path))
#model_path = os.path.join(os.getenv("AZUREML_MODEL_DIR"), "{model_name}")
logging.basicConfig(level=logging.DEBUG)
#print(model_path)
#with ZipFile(model_path, 'r') as f:
# f.extractall('model')
model = PipelineModel.load(model_path)
#model = PipelineModel.read().load(model_path)
def runinput_json:
尝试:
output_df=model.transformpd.read_jsoninput_json
evaluator=ComputeModelStatistics.SetCoredLabelColPrediction.setLabelCollabel.setEvaluationMetricAUC
结果=evaluator.com
auc=result.selectAUC.collect[0][0]
结果=auc
例外情况除外,如e:
结果=应力
return json.dumps({{"result": result}})
`
它给出的错误如下所示:
org.apache.hadoop.mapred.InvalidInputException:输入路径不存在:文件:/var/azureml app/azureml models/lightgbm.model/2/lightgbm.model/metadata\n\tat org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatusFileInputFormat.java:287\n\tat org.apache.hadoop.mapred.FileInputFormat.listStatusFileInputFormat.java:229\n\tatorg.apache.hadoop.mapred.FileInputFormat.getSplitsFileInputFormat.java:315
os.path.exists返回从Model.get\u Model\u path获取的路径为true
我是不是遗漏了什么