Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/node.js/39.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用nodejs获取输入csv文件,然后在python脚本中使用scraping进行处理,然后返回结果的最佳方法_Python_Node.js - Fatal编程技术网

使用nodejs获取输入csv文件,然后在python脚本中使用scraping进行处理,然后返回结果的最佳方法

使用nodejs获取输入csv文件,然后在python脚本中使用scraping进行处理,然后返回结果的最佳方法,python,node.js,Python,Node.js,我想对我面临的上述问题提出一些建议,所以问题是我有nodejs脚本,它使用spawn进程将输入csv文件发送到链接的python脚本。在python脚本中(具有刮取功能)需要时间来处理输出,因为csv文件可能有更多的行(比如大小为200 X 1的csv文件,有200个URL),因此需要处理200个输入,然后返回相应的输出lead to me请求超时,因为python执行需要一些时间 所以,如果你们当中有人遇到过这样的问题,请指导我如何继续 我已经用代码问了很多次这个问题,但是人们对我的代码感到困

我想对我面临的上述问题提出一些建议,所以问题是我有nodejs脚本,它使用spawn进程将输入csv文件发送到链接的python脚本。在python脚本中(具有刮取功能)需要时间来处理输出,因为csv文件可能有更多的行(比如大小为200 X 1的csv文件,有200个URL),因此需要处理200个输入,然后返回相应的输出lead to me请求超时,因为python执行需要一些时间

所以,如果你们当中有人遇到过这样的问题,请指导我如何继续

我已经用代码问了很多次这个问题,但是人们对我的代码感到困惑,所以让我们试试这种方法。我将自己编码,但请指导我,我要求所有退伍军人在这里这样做

如果有人真的想看代码/我的努力-