Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/277.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 简单脚本运行非常慢_Python_Urllib2 - Fatal编程技术网

Python 简单脚本运行非常慢

Python 简单脚本运行非常慢,python,urllib2,Python,Urllib2,我编写这个简单的脚本是为了检查一组比特币地址是否有交易。但是我认为它运行得非常慢,因为它每秒处理的速度差不多是2次。该文件有超过60k个地址,因此。。。这要花很长时间 可以吗 import urllib2 f = open('bc', 'r') output = open('output', 'w') n = 1 for bc in f: url = "https://blockchain.info/address/" + bc aux = urllib2.urlopen(u

我编写这个简单的脚本是为了检查一组比特币地址是否有交易。但是我认为它运行得非常慢,因为它每秒处理的速度差不多是2次。该文件有超过60k个地址,因此。。。这要花很长时间

可以吗

import urllib2

f = open('bc', 'r')
output = open('output', 'w')

n = 1
for bc in f:
    url = "https://blockchain.info/address/" + bc
    aux = urllib2.urlopen(url).read()    
    print n
    if int(aux[aux.find("<td id=\"n_transactions\">") + 24]) > 0:
        text = str(n) + ' -- ' + bc
        output.write(text)
    n = n + 1

output.close()
f.close()
导入urllib2
f=打开('bc','r')
输出=打开('output','w')
n=1
对于f中的bc:
url=”https://blockchain.info/address/“+bc
aux=urllib2.urlopen(url.read())
印刷品
如果int(辅助[aux.find(“”+24])>0:
text=str(n)+'--'+bc
输出.写入(文本)
n=n+1
output.close()
f、 关闭()

您正在为文件中的每个实例打开一个URL。。。加载请求、执行查找,然后写入文件需要时间。你正在加载一个网页60000次。。。这需要一段时间


不一定是脚本的错误,还有你的连接、网站的速度等等。在你处理数据的能力中有很多变量。

我看不出脚本有任何问题。每个页面加载操作都会影响输出呈现时间

也许你为什么不考虑使用某种库来执行这个操作呢


看看Python的PANDAS-PANDAS.pydata.org是否可以帮助您。PANDAS自身带来的最大好处是,它可以非常高效地用于合并多个文件并对其执行集体操作。通过这种方式,您可以减少页面执行,这将进一步加快脚本的速度。

是的,这很好。因为你是通过互联网提出请求的,所以很多事情都会在速度上起作用。首先是网络连接速度。我想这就是为什么这里有3万秒~8点33分。。如果这是获取数据的唯一方法,请考虑将其运行为CRON脚本,并将数据缓存在本地数据库中,或者只是在一夜之间运行,如果这是一次性的事情。8.33小时是一个很好的休息时间。:)@Kilenaitor是的,我会让它运行直到它结束。已经有6k了!xDnvm。。我是白痴。。该网站有一个API。。。