Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 如何使用github操作并行运行每个提交/PR的CI/CD测试?_Amazon Web Services_Azure_Continuous Integration_Github Actions - Fatal编程技术网

Amazon web services 如何使用github操作并行运行每个提交/PR的CI/CD测试?

Amazon web services 如何使用github操作并行运行每个提交/PR的CI/CD测试?,amazon-web-services,azure,continuous-integration,github-actions,Amazon Web Services,Azure,Continuous Integration,Github Actions,有180GB的样品需要测试。当然,测试需要很多时间,所以我们希望加快这个过程。第一个问题是我们的CI/CD平台排队,因此完成测试需要很长时间。基本上,我希望将数据存储在云中,对于每次提交/请购,我希望使用基本映像创建自托管运行程序,该运行程序将根据数据库中的数据进行测试,并将被销毁。基本上我有这些问题: 1) Github操作工作流是否针对每个提交/PR并行运行? 2) 如何实现在每次提交/PR时创建并销毁基础映像?可能的选择是什么? 3) 为此,您推荐哪些基于云的解决方案?这个问题太广泛,第3

有180GB的样品需要测试。当然,测试需要很多时间,所以我们希望加快这个过程。第一个问题是我们的CI/CD平台排队,因此完成测试需要很长时间。基本上,我希望将数据存储在云中,对于每次提交/请购,我希望使用基本映像创建自托管运行程序,该运行程序将根据数据库中的数据进行测试,并将被销毁。基本上我有这些问题:

1) Github操作工作流是否针对每个提交/PR并行运行? 2) 如何实现在每次提交/PR时创建并销毁基础映像?可能的选择是什么?
3) 为此,您推荐哪些基于云的解决方案?

这个问题太广泛,第3部分主要是基于观点的。请将您的要求分解为单独的问题,并分别提问。这个问题太宽泛,第三部分主要是基于意见。请将您的请求分解为单独的问题,并分别提问。