Python:解压缩zlib字符串

Python:解压缩zlib字符串,python,zlib,Python,Zlib,我正在编写一个python脚本来读取mzXML文件。我可以解析我想要的数据,但它是zlib压缩的。我已尝试使用zlib库,但它给了我以下错误: zlib.error:解压数据时出错-3:标头检查不正确 我知道这个错误是由于缺少标题检查造成的,但我不知道如何给出它。这是我试图解码的数据 compressedLen=“3830” 精度=“64” byteOrder=“网络” contentType=“m/z-int”这一研究表明,他们的研究成果是一个非常简单的研究成果。这一领域的研究成果是一个非常简

我正在编写一个python脚本来读取mzXML文件。我可以解析我想要的数据,但它是zlib压缩的。我已尝试使用zlib库,但它给了我以下错误:

zlib.error:解压数据时出错-3:标头检查不正确

我知道这个错误是由于缺少标题检查造成的,但我不知道如何给出它。这是我试图解码的数据

compressedLen=“3830”
精度=“64”
byteOrder=“网络”
contentType=“m/z-int”这一研究表明,他们的研究成果是一个非常简单的研究成果。这一领域的研究成果是一个非常简单的研究。他们的研究成果是一个关于一个中国的研究成果。他们的研究成果是一个中国的一个中国的研究成果。他们的研究成果是一个关于一个中国的研究成果,一个中国的一个中国的研究成果是一个中国的一个中国的研究成果。他们的研究成果是一个中国的一个中国的研究,一个中国的一个中国的研究,一个中国的一个中国的一个中国的一个中国的研究成果,一个中国的中国的中国的中国的中国的中国的中国的中国的研究成果是一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的中国的中国的中国的一个中国的中国的一个中国的一个中国的一个中国的一个中国的中国的研究,中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的WVC1KBF8Y/QnAl+VY4.中国政府目前正在研究一个新的研究项目。该项目是一个新的研究项目。该项目是一个WW W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W W 4/ZVVVVVGGZ Z Z+Z Z Z+Z Z Z Z+x+x x/F F F F C C C C C C C C C C C C C C C C C Z Z+Z+Z+x/C C C C C ZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZF1HV3HI8BMU1QMKHR6/tJnxG6wQHzy1iPmau9CvaA4月6日,中国政府在《中国参考书》上发表了一份研究报告。4月6日,中国政府在《中国参考书》上发表了一份研究报告。6月6日,中国政府在《中国参考书》上发表了一份研究报告。4月6日,中国政府在《中国参考书》上发表了一份研究报告。4月6日,中国政府在《中国参考书中,中国政府在《中国共产党》的《中国政协9月6号,中国大陆8月8日,8号,8号,中国政府在《中国政协8号,8号,8号,8号,中国政协8月8号,8号,8号,中国政协8号,8号,8号,中国政协8号,8号,8号,8号,中国政协8号,8号,8号,8号,8号,中国政协8号,8号,8号,8号,8号,8号,中国政协8号,8号,8号,中国中国FUV1/BL4jDQ/6kIhZFDvLIy31J+/N0FrIvW4.WeWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWW0BIT9DBD4MMDDN6QWOF7IV1Z/pjU7E+X2tYf5b3E8kj+cQ38W+om64Mt+D4.TobiTobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(3)Tobi2(4)Tobi2(4)Tobi4(4)Tobi2(3)Tobi2(3)Tobi2(4)Tobivvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvv8(8+m8+mh3(6 6+mh3)vvvvvvvvvvvvvv6 6(6 6(3)vvvvvvvv6 6(3)vvvvvvv6 6 6 6 6 6 6)/8FnGC2l30z7wAOcZyE/UBXXOO02BR1PFBRMTE4.目前,该领域的研究成果是一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于关于一个关于一个关于一个关于关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国的中国XDNJTLJ3GEIWQOPF+pAf(2)vvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvv+PS7kHbts+mfaYLxdby4mv68ctQhHLia9czrgX1(4)这种研究的方法是一个普通的学校,或者是一个学校,或者是一个学校,或者是一个学校,或者是一个学校,或者是一个学校,或者是一个学校,或者是一个普通的学校,或者是一个普通的学校,或者是一个普通的学校,或者是一个学校的学校,或者是一个普通的学校,或者是一个普通的学校,或者是一个普通的学校的学校,或者是一个学校的学校的学校,或者是一个学校的学校,或者是一个学校的一些学校的一些学校的一些学校的一些学校的一些学校,或者是一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校,或者是一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校的一些学校,或者是一些学校的一些学校的一些学校的一些学校的一些学校的一些D6GLWB3Q30N54F3UJZNR8VZS+Bs97Nc52ibSny研究结果表明,该文对当时的研究现状进行了分析。研究结果给出了一个8层8层8层8层8层8层8层8层4层6层6层6层6层6层8层4层4层4层4层4层4层4层8层8层8层8层8层8层8层8层8层8层8层6层6层6层6层6层6层6层6层6层8层8层8层8层8层8层8层8层8层8层8层8层8层4层4层4层4层4层4层8层4层4层4层4层4层4层4层4层4层4层4层4层4层4层4层4层4层4层4层8层4层4层4层4层4层4层8层4层4层4层4层4层4层4层4层8层4层4层4层4层4层4层4层4层8层4层4层4层JVU+6K4N9UYURZH3ETLPJFK0G6UJ8RZQ4B3J/4.一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词CFT/D8n5FfNVGC/HGWkeQzPAmcjfoK7CqzvYx/eYT8VlwHRA7.我们可以用一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的一个中国的ZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZVVVZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKZSAZYHFE7P6GB1KSBF3A7U+78lii1bwqSf2.一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究方法,一种新的研究结果,一种新的研究方法,一种新的研究结果,一种新的研究结果,一种新的研究结果,一种新的研究结果,一种新的研究结果,一种新的GGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGG8(8-8-8-8-8(中国中国中国中国中国的中国中国的一个中国中国的一个中国的研究项目,一一个中国中国的一个中国的非非非非非非非非非非非非非非非非非非非非非非非非非非非非非非非非非非政府政府/WcD5rtJGfL32euj610aAv37IVujO+一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一个单词,一0TOF+Z+8A07g95Dxb/MhAzzeAK8Z2AK+8C/z0KdG5z+IE3.在一份研究报告中,我发现了一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一个关于一O3/WcJUOIL+L/M6YOFE98INQCHJPD9+Gmh3g8/7yAP34mf+rx/G9ouEH/r/BbT/PXw2Xf0Eek9zJ1J88RB2CaI5jQ89hzq+I72SNAzYj3mK9C/I06v4K/6S5fA9rtOG7m+M5VM82CoAB19GV77QN7NxPDFvZOx5RHZGFXQZV5NF0


这是蛋白质组扫描的数据。如能帮助您理解此信息,将不胜感激

解决了这个问题。能够使用此数据库中的代码读取Base64解码数据

以下是代码片段:

def parse_peaks(peaks_decoded):
#Based on code by Taejoon Kwon (https://code.google.com/archive/p/massspec-toolbox/)
tmp_size = len(peaks_decoded)/4
unpack_format1 = ">%dL" % tmp_size

idx = 0
mz_list = []
intensity_list = []
for tmp in struct.unpack(unpack_format1,peaks_decoded):
    tmp_i = struct.pack("I",tmp)
    tmp_f = struct.unpack("f",tmp_i)[0]
    if( idx % 2 == 0 ):
        mz_list.append( float(tmp_f) )
    else:
        intensity_list.append( float(tmp_f) )
    idx += 1
return mz_list,intensity_list

解决了这个问题。能够使用此数据库中的代码读取Base64解码数据

以下是代码片段:

def parse_peaks(peaks_decoded):
#Based on code by Taejoon Kwon (https://code.google.com/archive/p/massspec-toolbox/)
tmp_size = len(peaks_decoded)/4
unpack_format1 = ">%dL" % tmp_size

idx = 0
mz_list = []
intensity_list = []
for tmp in struct.unpack(unpack_format1,peaks_decoded):
    tmp_i = struct.pack("I",tmp)
    tmp_f = struct.unpack("f",tmp_i)[0]
    if( idx % 2 == 0 ):
        mz_list.append( float(tmp_f) )
    else:
        intensity_list.append( float(tmp_f) )
    idx += 1
return mz_list,intensity_list

实际的zlib压缩数据是二进制的,而不是像这样的ASCII文本。也许这是个文学学士