dask数据帧到_拼花抛出错误

dask数据帧到_拼花抛出错误,dask,dask-distributed,Dask,Dask Distributed,我正在尝试将任务数据帧保存到HDFS上的拼花地板。但是它失败了,出现错误:异常:TypeError('预期的字节列表',) 我还将对象_编码参数提供为{“异常”:“json”,“传感器_名称”:“json”} 以下是dataframe中的列:索引(['original_value'、'Aboratory'、'Aboratory'、'Aboratory_bin'、'sensor_name'],dtype='object') “传感器名称”和“异常”列为字符串。其他列是float 例如:[18.0'

我正在尝试将任务数据帧保存到HDFS上的拼花地板。但是它失败了,出现错误:异常:TypeError('预期的字节列表',)

我还将对象_编码参数提供为{“异常”:“json”,“传感器_名称”:“json”}

以下是dataframe中的列:索引(['original_value'、'Aboratory'、'Aboratory'、'Aboratory_bin'、'sensor_name'],dtype='object')

“传感器名称”和“异常”列为字符串。其他列是float

例如:[18.0'N'0.0'settep']

我还尝试将其保存为HDFS中的CSV,但api失败,错误为:Exception:ValueError('url类型未理解: CSV的路径为:hdfs://ip:port/some 路径


如果有人能指导我正确的方向,那就太好了。

如果异常和传感器名称总是字符串,我建议使用utf8编码,这是默认的。感谢您的回复。我按照您的建议进行了更改,但仍然失败,出现了相同的错误。您仍然会遇到两个错误中的哪一个?因为url不清楚,这可能只是因为没有安装hdfs3,但如果包含完整的回溯,则更容易判断。拼花的问题已经解决。我必须使用dtype api显式地将所有数字列转换为numpy float。CSV的问题仍然存在。@mdurant,hdfs3已经安装。即使对于拼花,我也使用HDFS。现在我正在继续仅限拼花地板。如果将使用CSV检查错误,我需要再次使用CSV。如果异常和传感器名称始终是字符串,我建议使用utf8编码,这是默认值。感谢您的回复。我根据您的建议进行了更改,但仍然失败,出现相同的错误。您仍然收到两个错误中的哪一个?对于url not理解,这可能只是因为hdfs3没有安装-但是如果您包含完整的回溯,就更容易判断了。拼花的问题已经解决。我必须使用dtype api显式地将所有数字列转换为numpy float。CSV的问题仍然存在。@mdurant,hdfs3已经安装。即使对于拼花,我也使用HDFS。现在我要g仅限拼花地板。如果将使用CSV检查错误,我需要再次使用CSV。