Python 有没有一种方法可以使用MLflow记录数据集的描述性统计信息?

Python 有没有一种方法可以使用MLflow记录数据集的描述性统计信息?,python,mlflow,Python,Mlflow,有没有一种方法可以使用MLflow记录数据集的描述性统计信息?如果有,请分享详细信息?一般来说,您可以使用mlflow\u log\u artifact()函数记录代码的任意输出。发件人: mlflow.log\u工件(本地路径,工件路径=无) 将本地文件或目录记录为当前活动运行的工件 参数: local_path–要写入的文件的路径。 artifact_path–如果提供,则为artifact_uri中要写入的目录 例如,假设您的统计数据位于pandas数据框中,stat\u df ## Wr

有没有一种方法可以使用MLflow记录数据集的描述性统计信息?如果有,请分享详细信息?

一般来说,您可以使用mlflow\u log\u artifact()函数记录代码的任意输出。发件人:

mlflow.log\u工件(本地路径,工件路径=无) 将本地文件或目录记录为当前活动运行的工件

参数:
local_path–要写入的文件的路径。 artifact_path–如果提供,则为artifact_uri中要写入的目录

例如,假设您的统计数据位于pandas数据框中,
stat\u df

## Write csv from stats dataframe
stat_df.to_csv('dataset_statistics.csv')

## Log CSV to MLflow
mlflow.log_artifact('dataset_statistics.csv')

这将显示在跟踪UI中此MLflow运行的工件部分下。如果您进一步浏览文档,您将看到您还可以记录整个目录和其中的对象。通常,MLflow为您提供了很大的灵活性—您可以使用MLflow跟踪写入文件系统的任何内容。当然,这并不意味着你应该。:)

我想应该是:mlflow.log\u artifacts('dataset\u statistics.csv')感谢您提供详细的解释