Python 3.x zarr.consolidate#u元数据生成错误:';memoryview';对象没有属性';解码';

Python 3.x zarr.consolidate#u元数据生成错误:';memoryview';对象没有属性';解码';,python-3.x,zarr,Python 3.x,Zarr,我在path上保存了一个现有的LMDB zarr存档(~6GB)。现在我想整合元数据以提高读取性能 这是我的剧本: store = zarr.LMDBStore(path) root = zarr.open(store) zarr.consolidate_metadata(store) store.close() 我得到以下错误: Traceback (most recent call last): File "zarr_consolidate.py", line 12, in <m

我在
path
上保存了一个现有的LMDB zarr存档(~6GB)。现在我想整合元数据以提高读取性能

这是我的剧本:

store = zarr.LMDBStore(path)
root = zarr.open(store)
zarr.consolidate_metadata(store)
store.close()
我得到以下错误:

Traceback (most recent call last):
  File "zarr_consolidate.py", line 12, in <module>
    zarr.consolidate_metadata(store)
  File "/local/home/marcel/.virtualenvs/noisegan/local/lib/python3.5/site-packages/zarr/convenience.py", line 1128, in consolidate_metadata
    return open_consolidated(store, metadata_key=metadata_key)
  File "/local/home/marcel/.virtualenvs/noisegan/local/lib/python3.5/site-packages/zarr/convenience.py", line 1182, in open_consolidated
    meta_store = ConsolidatedMetadataStore(store, metadata_key=metadata_key)
  File "/local/home/marcel/.virtualenvs/noisegan/local/lib/python3.5/site-packages/zarr/storage.py", line 2455, in __init__
    d = store[metadata_key].decode()  # pragma: no cover
AttributeError: 'memoryview' object has no attribute 'decode'
回溯(最近一次呼叫最后一次):
文件“zarr_consolidate.py”,第12行,在
zarr.consolidate_元数据(存储)
文件“/local/home/marcel/.virtualenvs/noisegan/local/lib/python3.5/site packages/zarr/conciency.py”,第1128行,合并元数据
返回打开的\u合并(存储,元数据\u键=元数据\u键)
文件“/local/home/marcel/.virtualenvs/noisegan/local/lib/python3.5/site-packages/zarr/convencity.py”,第1182行,在OpenU中
元数据存储=合并的元数据存储(存储,元数据密钥=元数据密钥)
文件“/local/home/marcel/.virtualenvs/noisegan/local/lib/python3.5/site packages/zarr/storage.py”,第2455行,在__
d=store[metadata_key].decode()#pragma:无封面
AttributeError:“memoryview”对象没有属性“decode”

我正在使用
zarr2.3.2
python3.5.2
。我有另一台运行python 3.6.2的机器。这可能与python版本有关吗?

谢谢您的报告。应该是固定的。请测试一下(如果你能)


如果您能够分享更多关于您的案例中为什么阅读性能受到影响的信息,那么了解以下内容将非常有趣:)

这应该是GitHub上的错误报告。非常感谢,它现在可以工作了。我使用zarr加载图像并将其输入神经网络。所以我需要一个高阅读能力。性能已经相当好了,但是为了有效地使用GPU,如果不整合元数据,它的速度还不够快。谢谢您提供的信息。如果您能够共享任何关于GitHub问题中哪些方面进展缓慢的基准数据,那么进一步调查将会很有意思;)