Import.io 爬虫程序从末尾挂起几个URL

Import.io 爬虫程序从末尾挂起几个URL,import.io,Import.io,无论我粘贴2000个URL、1000个URL、500个URL还是其他什么,爬虫都能从批量URL中完美地返回数据,但随后会从末尾停止少量URL并挂起。。。。由于没有取消/停止按钮,我不得不退出程序 例如,250个粘贴的URL-在247处停止,2000个粘贴的URL-在1986处停止 这通常是由于处理过程中发生超时。 您是否尝试在批量提取功能中复制粘贴URL? 我们最近发布了批量提取的错误处理,进程将在1'后超时,您可以重试失败的进程 有关示例,请参见此处: 杆 这通常是由于处理过程中发生超时。 您

无论我粘贴2000个URL、1000个URL、500个URL还是其他什么,爬虫都能从批量URL中完美地返回数据,但随后会从末尾停止少量URL并挂起。。。。由于没有取消/停止按钮,我不得不退出程序

例如,250个粘贴的URL-在247处停止,2000个粘贴的URL-在1986处停止

这通常是由于处理过程中发生超时。 您是否尝试在批量提取功能中复制粘贴URL? 我们最近发布了批量提取的错误处理,进程将在1'后超时,您可以重试失败的进程

有关示例,请参见此处: 杆

这通常是由于处理过程中发生超时。 您是否尝试在批量提取功能中复制粘贴URL? 我们最近发布了批量提取的错误处理,进程将在1'后超时,您可以重试失败的进程

有关示例,请参见此处:

Hi Rod,您通过的所有URL是成功的还是失败的?你可以从爬行器顶部的面板上看出这一点。嗨,罗德,你通过的所有URL都成功了还是有一些失败了?您可以通过爬行器顶部的面板来判断这一点。