Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/288.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/list/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 从url获取id_Python_List - Fatal编程技术网

Python 从url获取id

Python 从url获取id,python,list,Python,List,我想从url中获取id,我已经在列表中存储了一组url,我想获取url的特定部分,即id部分,因为那些没有id部分的url应该打印为无。到目前为止,代码我已经尝试过了 text=[u'/fhgj/b?ie=UTF8&node=2858778011',u'/gp/v/w/', u'/gp/v/l', u'/gp/fhghhgl?ie=UTF8&docId=1001423601'] text=text.rsplit(sep='&', maxsplit=-1) print te

我想从url中获取id,我已经在列表中存储了一组url,我想获取url的特定部分,即id部分,因为那些没有id部分的url应该打印为无。到目前为止,代码我已经尝试过了

text=[u'/fhgj/b?ie=UTF8&node=2858778011',u'/gp/v/w/', u'/gp/v/l', u'/gp/fhghhgl?ie=UTF8&docId=1001423601']
text=text.rsplit(sep='&', maxsplit=-1)
print text
输出是

 [u'2858778011',u'/gp/v/w/', u'/gp/v/l', u'1001423601']
我希望得到这样的东西

[u'2858778011',u'None', u'None', u'1001423601']
使用urlparse,或者如果您真的想使用stringlibs,那么

prefix, sep, text = text.partition("&")

或者只是text=text.partition&[2]。

这真的是您的代码吗?我不认为你能在列表对象上做rsplit;我不确定rsplit是否允许关键字参数;另外,在“&”符号处拆分文本并不能消除node=part。另外,如何确定哪个值具有所需的ID?i、 e.您希望节点值在第一个中,文档ID在最后一个中。这将为您提供&符号后面的位,例如node=2858778011。这不是要求的吗?好吧,忽略帖子中的几个错误。他的预期输出是2858778011,所以我认为这意味着他只是想要在=。也许值得扩展您的答案,以展示如何使用URLPRASE。