Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/node.js/33.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js 谷歌语音API的流式麦克风输入_Node.js_Stream_Speech_Google Cloud Speech - Fatal编程技术网

Node.js 谷歌语音API的流式麦克风输入

Node.js 谷歌语音API的流式麦克风输入,node.js,stream,speech,google-cloud-speech,Node.js,Stream,Speech,Google Cloud Speech,我研究了谷歌云语音API,发现我的麦克风在节点服务器上工作 当时我在想,从网络前端传输麦克风的最佳做法是什么?它是否从getUserMedia向节点服务器发送音频流,并通过节点API客户端将其传输到API?或者只是将语音输入保存到一个文件中,然后将其传输到API 其目的是“转录”指令(一句或两句话长),并将结果发送到另一个API 我知道这个问题已经问了一年多了,OP可能已经找到了答案或者放弃了,但我花了足够长的时间在谷歌上搜索这一点,结果徒劳无功,直到我发现我想帮助任何跟随我脚步的人:我写了一篇

我研究了谷歌云语音API,发现我的麦克风在节点服务器上工作

当时我在想,从网络前端传输麦克风的最佳做法是什么?它是否从getUserMedia向节点服务器发送音频流,并通过节点API客户端将其传输到API?或者只是将语音输入保存到一个文件中,然后将其传输到API


其目的是“转录”指令(一句或两句话长),并将结果发送到另一个API

我知道这个问题已经问了一年多了,OP可能已经找到了答案或者放弃了,但我花了足够长的时间在谷歌上搜索这一点,结果徒劳无功,直到我发现我想帮助任何跟随我脚步的人:我写了一篇教程,基本上就是针对这种情况。

您可以直接从getUserMedia将数据传输到API,而无需将其保存到文件,也无需中间节点服务器。谢谢您的回答!一个人怎么做呢?据我所知,restapi不支持流(?)类似这样的东西查看该包的gitrepo,它看起来不支持流;“需要注意的是,gRPC Web规范目前不支持客户端流。”。()我也想这么做,现在我被卡住了。我尝试过使用socket.io,但不知道如何将浏览器中的缓冲音频转换为可通过管道发送到Google语音API的流。我遇到的另一个选择是使用binary.js,它似乎工作得更好,但我最终在服务器上得到了一个“BinaryStream”对象,我不知道该如何处理它。有人成功地使用过这两种方法吗?