Dask 更新到最新版本后,使用fastparquet打开拼花文件时出现问题

Dask 更新到最新版本后,使用fastparquet打开拼花文件时出现问题,dask,fastparquet,Dask,Fastparquet,我创建了一堆拼花地板文件,如下所示: dd.to_parquet(df, 'dir/of/parquet', partition_on=['month', 'day'], engine='fastparquet') raw_data_view = dd.read_parquet('data/raw_data_fast_par.par', columns=['@timestamp', 'http_user','dst', 'dst_port', 'http_req_method', 'http_

我创建了一堆拼花地板文件,如下所示:

dd.to_parquet(df, 'dir/of/parquet', partition_on=['month', 'day'], engine='fastparquet')
raw_data_view = dd.read_parquet('data/raw_data_fast_par.par', columns=['@timestamp', 'http_user','dst', 'dst_port', 'http_req_method', 'http_req_header_host', 'http_req_header_referer', 'http_req_header_useragent', 'http_req_secondleveldomain'],
                       engine='fastparquet', filters=[('@timestamp', '>=', np.datetime64(start)), ('@timestamp', '<', np.datetime64(end))])
我曾经读过这样一部分专栏:

dd.to_parquet(df, 'dir/of/parquet', partition_on=['month', 'day'], engine='fastparquet')
raw_data_view = dd.read_parquet('data/raw_data_fast_par.par', columns=['@timestamp', 'http_user','dst', 'dst_port', 'http_req_method', 'http_req_header_host', 'http_req_header_referer', 'http_req_header_useragent', 'http_req_secondleveldomain'],
                       engine='fastparquet', filters=[('@timestamp', '>=', np.datetime64(start)), ('@timestamp', '<', np.datetime64(end))])
调用compute时:

ValueError: The columns in the computed data do not match the columns in the provided metadata
Expected: ['@timestamp', 'http_user', 'dst', 'dst_port', 'http_req_method', 'http_req_header_host', 'http_req_header_referer', 'http_req_header_useragent', 'http_req_secondleveldomain']
Actual:   ['@timestamp', 'http_user', 'dst', 'dst_port', 'http_req_method', 'http_req_header_host', 'http_req_header_referer', 'http_req_header_useragent', 'http_req_secondleveldomain', 'month', 'day']

有什么变化吗?

如果没有
列=
,它是否正常工作?建议您向full Replicator提出问题,请参阅。是的,拼花地板代码已被重写和简化,我们希望不会破坏工作流…删除
columns=
参数有效。如果没有
columns=
,它是否正常工作?建议您向full Replicator提出问题,请参阅。是的,拼花地板代码被重新编写和简化,我们希望不会破坏工作流…删除
列=
参数会起作用。