Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/api/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Api Google Vision文本检测返回太多不必要的数据_Api_Ocr_Google Vision - Fatal编程技术网

Api Google Vision文本检测返回太多不必要的数据

Api Google Vision文本检测返回太多不必要的数据,api,ocr,google-vision,Api,Ocr,Google Vision,当使用GoogleVision在菜单上运行文本检测时,他们API的响应太大,返回的数据太多,我不需要。我只需要菜单中的文本,而不是响应中的所有坐标。在我读过的任何文档中,我都找不到任何关于缩小响应范围的内容。有人知道如何指定在响应中返回哪些字段吗 这是我的请求: POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY> BODY: { "requests": [ { "image

当使用GoogleVision在菜单上运行文本检测时,他们API的响应太大,返回的数据太多,我不需要。我只需要菜单中的文本,而不是响应中的所有坐标。在我读过的任何文档中,我都找不到任何关于缩小响应范围的内容。有人知道如何指定在响应中返回哪些字段吗

这是我的请求:

POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY>

BODY:

{
  "requests": [
    {
      "image": {
        "content": "...base64-encoded-image-content..."
      },
      "features": [
        {
          "type": "TEXT_DETECTION"
        }
      ]
    }
  ]
}
POST:https://vision.googleapis.com/v1/images:annotate?key=
正文:
{
“请求”:[
{
“图像”:{
“内容”:“…base64编码图像内容…”
},
“特点”:[
{
“类型”:“文本检测”
}
]
}
]
}

我想出来了。我找不到任何关于如何做到这一点的文档,我只能猜测大约半个小时。如果有人知道这方面的任何文件,请告诉我

无论如何,您可以使用“fields”参数缩小响应范围,如下所示:

POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY>&fields=responses.fullTextAnnotation.text
POST:https://vision.googleapis.com/v1/images:annotate?key=&fields=responses.fullTextAnnotation.text

这将只返回来自Google Vision文本检测API的菜单文本

,仅仅解析JSON并提取fullTextAnnotation的开销太大。发短信吗?这些JSON响应通常大小不大。你自己对这个问题的回答是我所知道的缩小回复中数据范围的唯一方法,但它感觉很容易失败——这是他们API中未记录的部分,所以谷歌可以当场修改它。这实际上取决于您的用例,但我不会在发布版本中使用它。@CosminCretu我最终确实找到了它上面的文档。我只需要搜索“谷歌API字段参数”而不是“谷歌视觉API字段参数”,这很烦人。。。是的,用它返回的100个不必要的x,y坐标解析所有数据会有很大的开销,这是一个很好的链接!