Python缓存如何在循环中串行执行的多个Python进程之间使用缓存的

Python缓存如何在循环中串行执行的多个Python进程之间使用缓存的,python,caching,Python,Caching,我需要测试一个RESTAPI调用,该调用在页面中返回大量元素。 也就是说,第1页和pagesize 100的第一个REST API调用返回json字符串中的前100个结果。然后,page2和pagesize=100的第二个restapi调用返回101-200结果(如果是)。等等让我们假设我使用powershell脚本(或python)执行此操作 另一方面,我需要测试结果(如果结果都是正确的)。这是Python脚本所必需的。因此,我需要编写这个python应用程序(一般称为get_all_reco

我需要测试一个RESTAPI调用,该调用在页面中返回大量元素。 也就是说,第1页和pagesize 100的第一个REST API调用返回json字符串中的前100个结果。然后,page2和pagesize=100的第二个restapi调用返回101-200结果(如果是)。等等让我们假设我使用powershell脚本(或python)执行此操作

另一方面,我需要测试结果(如果结果都是正确的)。这是Python脚本所必需的。因此,我需要编写这个python应用程序(一般称为get_all_records_和_cache_them.py),以另一种方式(不使用REST API)获取结果并缓存它们。我认为缓存会有所帮助

接下来,我必须使用一个测试过程框架(如果你明白我的意思的话,比如jenkins)。 现在,第一个问题: (1) 是否可以考虑以下流程逻辑?每个步骤下面是另一个/单独的流程调用

[python]  get_all_records_and_cache_them
while (no-error  -And  there-are-still-results)
{
    [powershell] call_REST_API_by_page ( page = idx, pagesize = 100) ## one powershell process
    [python]     get_cached_records   ( page = idx, pagesize = 100)  ## one py process
    [powershell] verify_quickly_the_records_from_both_sources;       ## one ps process
}
[python]  scrap_cache;
(2) 缓存是如何工作的?它是持久的吗?它像一个数据库吗?以后可以被另一个进程重用吗?我需要一个来验证流程。如果听起来可行的话

(3) 能否提供一些缓存和废弃缓存的示例

谢谢