Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/python-2.7/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Multithreading 对于我来说,考虑使用多个处理是否正确?_Multithreading_Python 2.7_Multiprocessing - Fatal编程技术网

Multithreading 对于我来说,考虑使用多个处理是否正确?

Multithreading 对于我来说,考虑使用多个处理是否正确?,multithreading,python-2.7,multiprocessing,Multithreading,Python 2.7,Multiprocessing,我有一段代码,它通过按顺序转到链接来检索一系列股票的目标URL。我读过,多重处理可以考虑加快整个过程 任何专家都可以解释我可以做什么来将代码更改为多处理模式 在我看来,如果代码必须按顺序爬行到每个目标URL,那么瓶颈将是浏览器的访问速度。只是想知道使用多重处理是否是加速它的方法,因为程序可以生成同一代码的多个版本,同时转到3-4个URL,并将结果传递回代码,等等 index = 0 stop = len(stock) - 1 stockURL = {} stockmap = {} while

我有一段代码,它通过按顺序转到链接来检索一系列股票的目标URL。我读过,多重处理可以考虑加快整个过程

任何专家都可以解释我可以做什么来将代码更改为多处理模式

在我看来,如果代码必须按顺序爬行到每个目标URL,那么瓶颈将是浏览器的访问速度。只是想知道使用多重处理是否是加速它的方法,因为程序可以生成同一代码的多个版本,同时转到3-4个URL,并将结果传递回代码,等等

index = 0
stop = len(stock) - 1
stockURL = {}
stockmap = {}

while index <= stop:
    tag = str(int(2) + index)
    if index <= 7:
        w.iimPlayCode(path to my file)
        w.iimPlayCode('WAIT SECONDS=5')
        w.iimPlayCode('ADD !EXTRACT {{!URLCURRENT}}')
        stockURL[index] = w.iimGetExtract(1)
        w.iimPlayCode('BACK')        
        index +=1
    else:
        w.iimPlayCode(path to my file)
        w.iimPlayCode('WAIT SECONDS=5')
        w.iimPlayCode('ADD !EXTRACT {{!URLCURRENT}}')
        stockURL[index] = w.iimGetExtract(1)
        w.iimPlayCode('BACK')
        index += 1  

stockURL = list(stockURL.values())
stockURL = str(u','.join(stockURL))
stockURL = stockURL.replace('http', 'URL GOTO=http').split(',')
stockURL = list(stockURL)

stockmap = dict(zip(stocks, stockURL))
index=0
停止=长度(库存)-1
stockURL={}
stockmap={}

虽然我建议看一下索引,但它有一个示例,说明了如何基本上完成您要查找的内容—并行查询多个URL,而不是按顺序查询。这是一本好书:)