Shell 如何循环并下载所有页面

Shell 如何循环并下载所有页面,shell,api,csv,curl,pagination,Shell,Api,Csv,Curl,Pagination,我正在尝试卷曲一个API并能够获取数据,当我通过API检查时,我只能从30页中获取1页数据。我把这个命令当作 使用的命令: curl --insecure --header '-token-' -H "Accept: application/csv" -H "Content-Type: application/csv" https://example/api/views/ > data.csv 我尝试了pages命令,如下所示: curl --insecure --header '-to

我正在尝试卷曲一个API并能够获取数据,当我通过API检查时,我只能从30页中获取1页数据。我把这个命令当作

使用的命令:

curl --insecure --header '-token-' -H "Accept: application/csv" -H "Content-Type: application/csv" https://example/api/views/ > data.csv
我尝试了pages命令,如下所示:

curl --insecure --header '-token-' -H "Accept: application/csv" -H "Content-Type: application/csv" https://example/api/views?PageIndex=2&PageSize=30 > data_all_pages.csv

我们如何能够通过shell执行它?用于分页或通过运行一次调用cURL命令。

您必须超越cURL,编写bash脚本或使用其他语言来实现这一点。看看这个:。另外,如果您想创建一个包含所有页面结果的CSV,最好使用
>
而不是
将输出附加到
data\u all\u pages.CSV
文件中。好的,您可以共享循环的任何代码吗?您看到我在之前的评论中发送的链接了吗?这里有一些关于如何创建循环的示例。如果您尝试了一些代码,但即使使用这些代码也无法实现您想要的,请更新您的问题以添加您的尝试。