Amazon web services 如何从@aws amplify/predictions获取完整的人脸识别信息?

Amazon web services 如何从@aws amplify/predictions获取完整的人脸识别信息?,amazon-web-services,react-native,aws-amplify,amazon-rekognition,Amazon Web Services,React Native,Aws Amplify,Amazon Rekognition,我在React原生应用程序中使用@aws amplify/predictions的人脸识别。在Predictions.identification中,我希望返回所有信息,例如检测到的人脸的属性。我得到了地标、边界框(检测到的人脸)和元数据。根据其他示例的文档,这似乎是默认信息,要恢复所有信息,我必须以“format:[all]”或类似格式传递,但我无法找到我正在使用的实体检测的结构,仅用于文本识别等 entities: { source: { bytes }, format:

我在React原生应用程序中使用@aws amplify/predictions的人脸识别。在Predictions.identification中,我希望返回所有信息,例如检测到的人脸的属性。我得到了地标、边界框(检测到的人脸)和元数据。根据其他示例的文档,这似乎是默认信息,要恢复所有信息,我必须以“format:[all]”或类似格式传递,但我无法找到我正在使用的实体检测的结构,仅用于文本识别等

entities: {
  source: {
    bytes
  },
  format: ["ALL"]
}
@aws amplify/predictions是否提供了我想要的所有信息?如果是,我如何提出请求以获取完整的人脸识别信息

文档似乎有冲突,因为我被要求将我的图像上传到S3存储桶中,并从那里进行分析。我使用的是作为arraybuffer发送的本地映像

随后的文件:


这是可以理解的。放大简化了Rekognition DetectFaces()请求。这意味着提供程序不允许请求程序传入带有值的参数键“format”。单击链接查看放大预测javascript代码。请注意,请求输入参数字典只有一个键“Image”

const param = { Image: inputImage };
要取消锁定,只需使用react本机应用程序中的aws sdk“”类调用react本机应用程序中的API。请求者可以通过aws sdk客户端传入“格式”密钥


Rekognition接受一个字节块。DetectFaces还接受一个S3对象。

这是可以理解的。放大简化了Rekognition DetectFaces()请求。这意味着提供程序不允许请求程序传入带有值的参数键“format”。单击链接查看放大预测javascript代码。请注意,请求输入参数字典只有一个键“Image”

const param = { Image: inputImage };
要取消锁定,只需使用react本机应用程序中的aws sdk“”类调用react本机应用程序中的API。请求者可以通过aws sdk客户端传入“格式”密钥


Rekognition接受一个字节块。DetectFaces还接受一个S3对象。

谢谢,我通过使用aws sdk而不是使用amplify.Swell成功地获取了所需的信息。听起来很美。IMHO预测提供者就像一个大大简化的初学者工具包。当我开始在amplify上使用aws sdk时,我的应用程序开始与众不同。amplify cli提供了样板文件:1。sdk请求的身份验证配置样板代码。2.IAM角色调用请求,从而减少要编写的代码量。这意味着使用amplify cli的应用程序比单独使用aws sdk的应用程序要好,IMHO。谢谢你,我通过使用aws sdk而不是使用amplify.Swell成功地获取了我想要的信息。听起来很美。IMHO预测提供者就像一个大大简化的初学者工具包。当我开始在amplify上使用aws sdk时,我的应用程序开始与众不同。amplify cli提供了样板文件:1。sdk请求的身份验证配置样板代码。2.IAM角色调用请求,从而减少要编写的代码量。这意味着使用amplify cli的应用程序比单独使用aws sdk的应用程序要好,IMHO。