Ios 操作系统级的自动化测试

Ios 操作系统级的自动化测试,ios,automated-tests,iphone-privateapi,eggplant,Ios,Automated Tests,Iphone Privateapi,Eggplant,我正在开发一个iOS应用程序,其中的自动化测试将在OS级别上完成(可以通过脚本打开任何应用程序)。我搜索了很多,我发现我们只允许在我们自己的应用程序中自动化测试脚本。好的,我的问题是EggPlant如何能够在操作系统级别上自动化测试(可以通过脚本打开联系人、电话应用程序) 注意:这将是一个内部企业应用程序,不适用于apple app store。移动测试自动化工具使用供应商提供的API与操作系统交互。对于iOS,它是。您只能自动化应用程序二进制文件中的内容。例如,如果您的应用程序使用web视图,

我正在开发一个iOS应用程序,其中的自动化测试将在OS级别上完成(可以通过脚本打开任何应用程序)。我搜索了很多,我发现我们只允许在我们自己的应用程序中自动化测试脚本。好的,我的问题是EggPlant如何能够在操作系统级别上自动化测试(可以通过脚本打开联系人、电话应用程序)


注意:这将是一个内部企业应用程序,不适用于apple app store。

移动测试自动化工具使用供应商提供的API与操作系统交互。对于iOS,它是。

您只能自动化应用程序二进制文件中的内容。例如,如果您的应用程序使用web视图,您可以访问internet,但无法从自动化测试中退出应用程序并打开Safari。EggPlant不会基于应用程序的二进制文件运行,它会“查看”屏幕并根据所看到的内容执行手势或过程。

UI自动化是否允许系统级交互?简单地说,我可以通过UI自动化脚本打开任何应用程序吗?据我所知,我们只能在应用程序中运行自动化脚本。我没有直接使用UI automation,但例如使用UI automation API运行iOS测试的Appium,您可以在iOS上打开任何应用程序。看看iOS上Preferences应用程序的Appium测试示例:我同意EggPlant使用图像识别在设备屏幕上搜索任何内容。我的问题是iPhone如何执行SenseTalk命令?SenseTalk命令是针对计算机执行的,而不是针对模拟器执行的。UIAutomation只是针对应用程序的二进制文件执行。有了EggPlant,屏幕上的任何东西都是可以点击的,所以iPhone本身并没有执行命令,就像你在与模拟器交互一样。