我设置了一个 Import.io 批量提取,可以很好地处理 50 个 URL。它实际上在几秒钟内就可以穿过所有这些。但是,当我尝试提取 40,000 个 URL 时,提取器在前一千个左右的时间里启动得非常快,然后每个增量 URL 都会逐渐变慢。到 5,000 时,每个 URL 大约需要 4-5 秒。
一种似乎可行的解决方案是一次将它们分成 1,000 个 URL 的块,并为每个块进行单独的批量提取。但是,这非常耗时,并且需要在最后将所有数据拼接在一起。
有没有人经历过这种情况,如果有,他们有更优雅的解决方案吗?
谢谢,迈克