Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/visual-studio-2012/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 3.x 使用urlextract从网站提取所有URL_Python 3.x - Fatal编程技术网

Python 3.x 使用urlextract从网站提取所有URL

Python 3.x 使用urlextract从网站提取所有URL,python-3.x,Python 3.x,所以我遇到了一个叫做urlextract的包。我想从一个网站上提取所有的url,但这似乎有点不对劲 我试图在上搜索错误,但找不到与此相关的任何内容。如果有人能告诉我我做错了什么,那将是一个很大的帮助 from urlextract import URLExtract as extract blogs = extract.find_urls("www.google.com") TypeError Traceback (most r

所以我遇到了一个叫做urlextract的包。我想从一个网站上提取所有的url,但这似乎有点不对劲

我试图在上搜索错误,但找不到与此相关的任何内容。如果有人能告诉我我做错了什么,那将是一个很大的帮助

from urlextract import URLExtract as extract
blogs = extract.find_urls("www.google.com")


TypeError                                 Traceback (most recent call last)
<ipython-input-5-b9c0f138f47d> in <module>
----> 1 blogs = extract.find_urls("www.google.com")

TypeError: find_urls() missing 1 required positional argument: 'text'
从urlextract导入urlextract作为提取
blogs=extract.find_url(“www.google.com”)
TypeError回溯(最近一次调用上次)
在里面
---->1 blogs=extract.find_URL(“www.google.com”)
TypeError:find_URL()缺少1个必需的位置参数:“text”
方法
find_url()
不是类
URLExtract
classmethod
,这意味着在函数
find_url(self、text、*args)
中至少需要两个arg。 但是,当执行代码中的
URLExtract.find_url(var)
,即执行代码中的
extract.find_url(var)
时,只给出了
self
,因此您得到了
TypeError
异常帐户
“缺少参数”
。因此,使用:

from urlextract import URLExtract as extract
extractor = extract()
blogs = extractor.find_urls("www.google.com")
方法
find_url()
不是类
URLExtract
classmethod
,这意味着在函数
find_url(self,text,*args)
中至少需要两个arg。 但是,当执行代码中的
URLExtract.find_url(var)
,即执行代码中的
extract.find_url(var)
时,只给出了
self
,因此您得到了
TypeError
异常帐户
“缺少参数”
。因此,使用:

from urlextract import URLExtract as extract
extractor = extract()
blogs = extractor.find_urls("www.google.com")