我正试图在我的Android手机上测试dialogflow/google actions的alpha版本,但google助手没有按预期打开选择加入链接(见下面的屏幕截图)
我所做的:
我在Dialogflow中创建了一个项目,并在Dialogflow中激活了Google助手选项
我已经在Google上配置了Actions上的关联项目
“模拟器”工作正常,“在设备上测试”选项被激活
Alpha版本具有“已部署”状态,我的gmail电子邮件位于Alpha测试者列表中
但当我在Android手机
我的谷歌行动被拒绝了。原因之一是:
代理的操作包中有太多隐式触发器。请将操作包中不包含调用名称的查询模式数量限制在10以下
我的userSays对象包含大约30个短语,因为我使用了API.AI的培训系统,这样我的助手就可以理解用户输入的任何类型,并提取所需的参数。这就是谷歌所指的吗。我做错什么了吗 是的,这可能是您遇到的问题。API.AI正在幕后为您的项目创建一个操作包。如果您想了解更多信息,请查看Actions SDK文档。谢谢,Leon。我设法更多地选择我的用户说的短语,这似乎就是问题所在。
我正在写一个应用程序来配合谷歌的行动。唯一糟糕的是,我找不到任何关于如何形成我的回应的信息,这样谷歌就可以从给定的URL流式传输音频。谷歌是否支持这一点
我已经在Alexa上编写了相同的应用程序,而在Alexa上,你所要做的就是返回一个音频项(令牌、URL、播放命令),Alexa将开始播放它
我应该提到的是,我没有使用API.AI,只是使用Actions SDK,并使用C#在Asure上托管我的web服务
所以,底线是。。。如何通过Actions SDK格式化响应,将MP3文件流式传输到Goog
我正在尝试将我的Android应用程序连接到AoG品牌验证以启用交易。3个网站在品牌验证中“连接”。我通过“连接应用程序”流程,在play.google.com中选择应用程序,并在play console中验证了所有3个站点。然后我等了好几天。然后我又试了一次,又等了三天。没有什么。应用程序从未连接
我从支持部门得到的答案是再试一次。有人看到并解决了这个问题吗?我知道这并不是什么大不了的事情,但这并不是说你从play console或AoG console得到了关于幕后实际发生的任何信息
谢谢,
全部:
我们希望通过按钮,而不是语音输入(关键字),启用具有自定义操作的Google助手。
例如,通常,我们使用单词“你好,谷歌,告诉我天气”来启用谷歌助手。但在我们的产品中,我们想按下一个特定的按钮,然后它可以将上面的句子直接发送给谷歌助手
但是我们找不到任何API来支持这个需求。我们听说谷歌计划支持硬键方法,因为三星在S8上有很好的体验
有人帮我们解决这个问题吗
谢谢大家! 您可以在不指定任何附加参数的情况下使用来触发主意图,或指定要触发的自定义意图。您可以在不指定任何附加参数的情况下使用来
我有一个谷歌操作(使用API.AI),它非常类似于
但是,我的应用被拒绝,原因如下:
您的一个或多个操作不允许用户轻松退出对话。如果用户要求取消或退出,请确保您不会继续与他们交谈。
当您在麦克风打开时说“停止”、“取消”或“退出”时,它会响应“确定,取消”,关闭麦克风并退出。但是,当您尝试在代理说话时使用这些命令时,它确实会关闭麦克风并退出,但不会像预期的那样说“确定,已取消”
我的动作设置如下:
欢迎意向:要求用户提供两个参数
Webhook响应:一旦提供了所有参数,Webhook(结构化)就
有没有一种方法可以让我使用谷歌的导航卡,当你在我的代理中询问类似“导航到家”这样的问题时,就会出现这种导航卡?我找不到任何与此相关的教程。
我试图打开地图应用程序,但这张(谷歌的导航卡)更适合我的要求,好像用户不想去链接。不,谷歌平台上的操作与底层操作系统平台上的任何功能是分开的
您可能希望考虑使用提供图像和路径作为卡上的概述,然后如果用户希望进行导航,请包含指向该应用程序的链接。谷歌(Google Assistnat第三方平台)上的操作尚不支持第三方应用程序的导航卡。您可以通过以下方式模拟导航
我最近开始与谷歌行动和Alexa Skill合作。
谷歌助手现在支持Android上的荷兰语。
我似乎无法在谷歌主页(alpha版)上使用我的荷兰语技能
这是不可能的还是我只是做错了什么
提前谢谢 你仍然有这个问题吗Mathias?是的@lukedavis,我和一位谷歌工程师谈过,他确认现在不可能用荷兰语测试技能。
我已经为Google创建了一个Action on Actions。它使用Dialogflow处理输入,并由PHP webhook提供支持。PHP脚本由第三方托管提供商托管。我正在使用Dialogflow API的v2
代理在Dialogflow中成功工作,没有问题
最初,在谷歌模拟器上的Actions中进行测试时,它运行良好
在提交我的行动草案供审查后,生产版本不起作用。然而,回到草稿版本,它仍然工作良好。因此,我提交的审查被拒绝
在控制台模拟器的错误选项卡中,它告诉我“格式错误响应”
必须设置
在操作控制台中,我尝试使用“Google登录”类型设置帐户链接:
在“开发/帐户链接”菜单中
我选择了“谷歌登录”类型
当显示“Google登录客户端信息”时,输入字段为空
我知道输入字段必须包含“授权URL”和“令牌URL”。
如何获取此信息以将其插入到我的代码中
感谢2019年10月更新
谷歌似乎再次更新了他们的谷歌项目。现在,您可以再次在Google登录选项下查看您的客户端ID
授权URL和令牌URL应为空。你需要自己提供信息。授权URL和令牌URL是您将构建的端点或OAuth服务
无法将应用程序(播放资源清册)连接到助手操作。我遵守了以下文件中提到的所有说明:
谷歌Play上的开发者帐户和商家帐户已创建
在Google搜索控制台中验证的web域-已验证
在谷歌Play控制台中具有com.Android.vending.BILLING权限的Android应用程序-创建、签名和上传
使用此应用程序在游戏控制台中创建一个版本(已关闭alpha版本)-已创建
Google Play控制台中的一个或多个订阅,这些订阅是您通过Action-CREATED(状态为Active)销售的
我们的XY项目已通过认证,并已投入生产。我们正在将生产从裸机迁移到云平台。在此过程中,我们正在更改DNS和域。我们试图实现的唯一更改是更新实现和链接此项目的端点
根据:
我们必须经历三个阶段:
重新提交测试套件结果。
填写新的认证申请表。
重新提交您的操作以供审阅。
第一阶段无法完成:
要运行测试套件,请执行以下操作:
为当前草稿启用的设备测试。成功
B使用您登录操作控制台时使用的同一帐户将操作链接到您的google帐户。失败
为什么B会失败?
为测试启用当前草稿不会反映实现和链接端点中的更改。
在为Google action创建一张基本卡片时,没有图像和按钮,只有文本主体,请参见下面的代码,我发现格式化的文本是可点击的,它会打开一个空白的浏览器窗口
{
"expectUserResponse": true,
"expectedInputs": [
{
"possibleIntents": [
{
"intent": "actions.
我无法从谷歌的Actions中获取用户的电子邮件地址。我使用谷歌登录作为身份验证方法。我想获取用户的电子邮件地址,但在我下面的webhook代码中显示“未定义”。如何才能很好地获取用户的电子邮件地址
app.handle('WELCOME', (conv) => {
let payload = conv.headers.authorization;
const email = payload.email;
let speech = email;
conv.add
在上的文档之后,我正在构建我的第一个操作,我注意到示例建议将AppEngine作为托管解决方案。我必须使用App Engine吗?或者我可以使用非谷歌所有的托管,如Amazon Lambda?是的,你可以使用任何托管平台来实现你的操作的webhook。对于您的操作,您需要一个web服务器来接受传入的HTTP POST webhook请求,然后使用JSON负载进行响应。如果您使用Node.js,Google已经开发了一个方便的客户端库,您可以通过NPM将其作为“Google上的操作”获取。对“La
我不确定这是否已经可行。我是否可以让另一个应用程序启动到Google Home的操作,而不是让一个人通过与它对话来启动?例如:我想让Smartthings IFTTT让Google Home播放一些东西。以下是几个案例:
案例1:如果我在家里,警报已启动,前门打开,那么Smartthings会打电话给Google home,让它说:前门已打开
案例2:当状态传感器检测到我到达谷歌主页时,谷歌主页向我打招呼,问我是否想玩任何游戏。不幸的是,我不想玩。目前,Google Home没有通知或异步消息。
我正在谷歌上为谷歌家庭设备开发一个动作
当请求粗略或精确的设备位置时,我会收到(我假设)一个默认值。我在google home应用程序中为该设备设置了一个“更多设置”下的位置。地点在美国境外。我尝试在美国设置地址,但仍然返回相同的默认位置值。直接询问设备“ok google,我在哪里”,它会正确返回我设置的地址(美国境内外),询问“ok google,天气如何”
这是我为设备位置返回的值:
"device": {
"location": {
"coordinates":
如何将Api Ai中意图的结果显示给手机用户。因此,基本上,当用户向google home询问某个问题时,其响应将是google home中的音频,也将是其手机中的视觉表示。目前最好的方法是让您的操作使用Firebase Cloud Messaging之类的东西向手机发送通知。当你在GoogleHome的助手上做一些事情时,目前没有办法让手机上的GoogleAssistant显示一张卡片或任何类似的东西
我很兴奋能在这个令人惊叹的集成上大显身手。
我正在按照上的说明进行操作,并已下载。但是,zip的内容缺少指令引用的agent.zip。说明正确吗?我还可以在哪里找到agent.zip来附带初学者应用程序
谢谢,,
Irena说明是正确的。我刚刚下载了zip文件,它有这些json文件和文件夹
您可以发布您的项目和下载的文件夹屏幕截图吗?您只需在API.AI中转到“导入”,然后单击您下载的zip文件(apiai starter app.zip)-它将导入所有意图,您可以开始对其进行操作。以下是解
我想使用来自节点服务器的新广播命令在我的Google Home上广播一条消息
例如,当我收到电子邮件、paypal通知等时通知我
是否可以使用Google Assistant SDK执行此操作?我尝试过搜索具有类似功能的github,但没有结果
谢谢 否Google Home不可能实现您想要的功能,因为无法执行通知或直接使用通知调用命令
使用assistant SDK,您需要一个设备来嵌入逻辑。您需要输入音频片段,告诉它播放一些短语,并为何时发送音频想出一个触发器。谢谢您的回复。有了谷歌助手,我
我创建了一个聊天机器人,它只包含一个额外的意图(depr\u intent),以及默认欢迎意图和默认回退意图。这一意图仅包括以下培训短语:“是什么导致一个人抑郁以及如何治疗?”。我将ML分类阈值设置为0.2
当我进入Dialogflow“我是一个抑郁的人”时,会触发depr\u intent,Dialogflow的json响应如下:
{
"id": "*****************************",
"timestamp": "2018-04-17T12:41:07.662
我们有超过一千个用户连接并使用我们的Google home actions,但是随机的我们会有一个无法连接的用户。我一直在查看操作控制台,我可以看到使用操作的人的日志,但是我还没有找到连接/初始集成日志。我在哪里能看到这些
提前感谢,
Dan你能详细说明无法连接是什么意思吗?@NickFelker我看到的主要问题是与谷歌成功连接(也就是说,我们已经完成了握手并拥有一个令牌),但谷歌没有在他们的终端显示连接,这在网络中有效吗
目前,可以使用谷歌助手打开我的应用程序
“好的,谷歌,打开我的应用”
是否可以将参数传递到我的应用程序的主活动
例如,如果我说
“好的Google,打开MyApp操作A”
我可以在我的应用程序的主要活动的意图中获得“action A”参数吗?你可以说“与电阻解码器谈论红、黄、蓝电阻”
发生这种情况时,您的操作将启动,但将跳过主要意图。相反,短语的其余部分(红色、黄色和蓝色电阻器)将被发送到Dialogflow或Actions SDK,并作为不同的意图进行处理
因此,用户将立即得到他们想要的答案
有没有办法使用谷歌智能家居操作平台来定制不受支持的设备,比如说运动传感器?如果没有,我们是否有办法创建自定义操作并使其与智能家居平台协同工作?设备的支持或不支持有些琐碎。当用户引用一组设备(如灯光)时,它们在语义上非常有用。更重要的是表示设备功能的
对于运动传感器,可以将其注册为任何设备类型(如灯光)。虽然这可能没有多大意义,但它会起作用。然后你会想看看这些特质,看看哪些能力是有意义的
查阅清单,你可能会找到一个合适的,也可能找不到。如果您需要自定义功能,您应该考虑构建一个提供更大灵活性的组件。
我想在谷歌助手上开发一个游戏/技能,一旦用户进入游戏/会话(“嘿,谷歌,开始游戏123”),它需要以下内容
播放几分钟长的音频文件
在第一个剪辑仍在播放时播放第二个音频文件
总是倾听。当文件播放时,游戏需要聆听并回应特定的语音短语,而不需要“嘿谷歌”关键字
是否支持这些功能?提前感谢。“可能。”这在很大程度上取决于您希望支持的谷歌平台上的操作的设备以及某些要求的必要性。根据你的需要,你可能会玩一些小把戏
播放“几分钟”长的音频文件。
你可以玩长达120秒的游戏。但这将在麦克风打开接受回应之前
我创建了一个名为Sequematic的操作。该名称是单词sequence和automatic的组合
不幸的是,当要求谷歌“与Sequematic对话”时,它很难识别这个名字
我能做些什么来帮助识别这个名字吗?目前,你几乎无法帮助谷歌助手识别动作。识别由谷歌助手设备本身内的语音识别完成,由谷歌管理和培训
我所知道的唯一诀窍就是在谷歌设置上玩你动作中的名字发音。这仅在识别将名称更改为紧密匹配时有效,例如“Sekuematik”,因为识别不知道如何处理该单词。你可以选择“Sekuamatik”作为你的
我有一个Google Nest Hub Max,我想增加它的功能以满足定制需求:
“嘿,谷歌,在我的工作计划中添加xyz”
然后我想对我的私有服务器进行HTTP调用
专用服务器返回一个文本
该文本将显示在Google Nest Hub Max屏幕+speak out中
如何才能做到这一点
本来我以为这不难。我曾设想过一个NodeJs、Java、Python或其他任何框架,Google在其中给我xyz文本,我可以做我的事情并返回一个简单的文本。显然,谷歌将处理意图匹配,只有当用户说出准确的短语时才
我有一个谷歌应用程序上的操作,当与另一个谷歌帐户共享时运行,但不为应用程序所有者运行。
我一直要求我:
请为您的Google帐户打开语音和音频活动、Web和应用程序活动以及设备信息权限
已为我的帐户打开语音、音频、Web和应用程序活动。有什么线索吗
谢谢您还需要执行以下操作
选中“包括使用谷歌服务的网站和应用程序的Chrome浏览历史和活动”旁边的复选框
请参阅下面的谷歌文档
是否为与您用于测试的设备关联的帐户启用了活动设置?
我正在为GoogleAssistant创建一个应用程序,它将在用户玩游戏时收集数据,然后将数据发送到项目数据库。我用来发送synapse数据的API要求它是文件格式,但是,由于GoogleAssistant应用程序的性质,我找不到为数据创建文件的方法。我是否忽略了这样做的方法/是否有方法绕过此问题并将数据发送到其他地方以将其转换为文件格式?数据存储在一个JSON对象中。用户与您的操作的对话将从他们的辅助设备(如Google Home)中继到Google的服务器,这些服务器会进行一些处理,然后再转
我一直在玩弄actions sdk,它似乎很有效,但只是为了我的主要目的。我添加了第二个意图,但它从未触发
以下是我的action.json:
{
"actions": [
{
"description": "Default Welcome Intent",
"name": "MAIN",
"fulfillment": {
"conversationName": "conversation_1"
},
"in
我已经使用Actions SDK在“Actions on google”中构建了一个应用程序。应用程序请求和应用程序响应工作正常,之前我在AppResponse中创建了expectedInput部分,没有使用SpeechbiasingHights,但现在我想使用它,我找不到任何有关speechBiasHints的信息
我的意思是我需要以下方面的信息:
什么是言语偏见
你能举例说明如何使用语音提示吗
语音偏见正在影响语音到文本的识别。例如,您可以在此处添加名称和其他插槽等
例如,您有一家名为乔治
我的谷歌行动向大学生传递信息。例如:谁是Title IX协调员
要回答这个问题,我们需要知道学生就读的大学。美国有2700多所大学,其中许多都有相同或相似的名字
所以,@college name是DialogFlow中的一个实体。是否有办法将所有2700多个学院名称作为@college name的潜在值导入DialogFlow
另外,是否有一种方法可以在Google上与Google Assistant一起使用带有DialogFlow/Actions的列表框,以确保识别出正确的学院?DialogF
我正在尝试开发一个谷歌助手动作,它可以根据用户输入在Chromecast显示屏上显示不同的项目。问题是,我找不到任何文档来证明这是否可行或是否可以实现
我看过Google Assistant的本地执行SDK的文档,但没有看到Chromecast是受支持的设备
这是可能的吗?如果是,怎么做
非常感谢您的回答。无法获得将数据发送到服务器的操作Chromecast@NickFelker好的,谢谢你的回复。我必须找到另一种方法。。。
我已经建立了一个google action,它与我定制的web Api对话
操作代码当前包含硬编码的个人详细信息。我需要这样做,当有人第一次使用它时,它会要求他们提供用户名、密码和URL
有办法做到这一点吗?或者,用户可以通过某种方式将这些详细信息添加到谷歌账户中,以供操作读取
或者,有没有一种方法可以发布一个操作,这样只有特定的用户才能访问它?一般来说,请求用户名和密码对于操作来说是一种不好的方法,有几个原因,并且请求URL可能会非常混乱。尤其是当您希望用户通过语音或不支持键盘的设备访问操作时
如何在Android设备上(例如在手机上)测试Actions Builder项目
我可以发布我的项目并将其分配给设备或Google帐户吗?如何从此Google帐户使用此Google Assistant项目?在Actions Builder控制台中,一旦转到“测试”选项卡,您将能够在使用相同帐户的任何Google Assistant设备上调用该操作。如果你已经给这个动作起了名字,你可以用“嘿,谷歌,跟动作的名字说话”来调用它。如果你还没有给它起名字,你可以用“嘿,谷歌,跟我的测试应用说话。”
测试
谷歌表示,通过他们的SDK,我们可以将助手构建到广泛的产品中,例如Raspberry Pi
现在它启动了,但我看不到该功能,我错过了什么吗?请注意嵌入式Google Assistant SDK,它允许您将Google Assistant添加到Raspberry Pi中。这不是今天发布的一部分。谢谢,我们什么时候可以期待SDK?据我所知,我们还没有这方面的信息。刚刚推出,如何设置一个树莓圆周率。
我在actions console下创建了一个项目,并为智能家居应用程序制作了一个测试操作包。我想尝试使用gactions上传我的操作包。但是,每次我执行这个命令时
./gactions --verbose update --action_package action.json --project my_project_id
结果总是这样:
Unable to update: Patch https://actions.googleapis.com/v2/agents/my_project_
我为智能家居应用程序添加了谷歌操作。当尝试在我的测试应用程序中添加设备时,我确实收到错误消息“Cloudn't update setting.Check your connection”
应用程序使用授权代码作为授权类型。这个流程似乎在我的服务器端完成了。最后一步,即请求访问令牌,得到正确回答(见下文)
有没有办法知道谷歌为什么不链接这个账户?顺便说一句,logcat没有指出任何问题
任何帮助都将不胜感激
[/]LoggingFilter:132-请求:请求
id=34;方法=员额;内容类型=应
我目前正在使用物联网设备来控制灯光。该设备使用FreeRTOS实现
我有点困惑如何为谷歌家庭提供与此设备的集成,有人能解释一下吗。您可以使用。Google助手使用webhook,向该URL上的SYNC、QUERY和EXECUTE发送命令。然后需要将这些命令发送到设备
安装是通过GoogleAssistant应用程序进行的,用户必须在该应用程序中链接到您的OAuth服务器
这是使用虚拟设备的智能家居。我已经通读了智能家居API。据我所知,这要求我们拥有一个现有的云服务,与控制我们的灯光的终端设备进
谷歌行动是否可能为谷歌主页设置提醒?例如,我希望我的操作能够让用户在他们想要的商品返回库存时获得提醒。理想情况下,这个提醒会击中他们所有的表面。这可能吗?不幸的是,目前没有
注意:语音扬声器目前不支持推送通知
我需要你的帮助!
我必须为谷歌助手写一个新动作。如果你在一天中的不同时间问谷歌相同的问题,谷歌必须用不同的短语回答。
开发这个项目哪种方式更好?
多谢各位 StackOverflow在您有一个试图解决但仍遇到问题的具体问题时效果最佳。我建议您更新您的问题,以显示您考虑过或尝试过的方法,哪些方法不起作用,为什么不起作用,以及您尝试使用的代码。请参阅。StackOverflow在您有一个试图解决但仍遇到问题的具体问题时效果最佳。我建议您更新您的问题,以显示您考虑过或尝试过的方法,哪些方法不起作用,为
我有一个智能家居的技能,已经可以很好地使用谷歌家居,但当谷歌家居第一次发现设备时,我想将设备分组到不同的房间,并将这些信息传递回谷歌家居。我知道用户可以在同步事件后创建房间并为其分配设备,但我希望在同步事件时对它们进行分组,这样用户就不需要从他们的终端开始这样做。有可能吗?在同步响应中,您可以返回每个设备的,该设备将在发现信号后向助手提供信号
我想知道用区间值定义不同类型实体的理想方法是什么。e、 g.具有最大和最小数量
我试图用最小值和最大值定义一个数字间隔实体。然后定义了一个具有@数字间隔+@sys.currency name的价格范围复合实体。(见附图)
这有两个问题。首先,用户有太多的方式来表达它。例如,它可以识别用户说:12美元以上,但不能识别用户说:12美元以上
有没有更好的方法来定义使用系统实体的it
例如,假设我们想从用户那里收集两个不同的值
另一个问题是,假设我们想从用户那里收集两个不同种类的值。如何区分正确的实体(
假设我有一个已发布的带有dialogflow的谷歌助手语音应用程序。如果我更改了实现参数(例如发送的标题或URL),这是否需要对voice应用程序进行新的审查
如果是这样,我如何在不破坏应用程序的情况下顺利更改这些参数?我从来都不知道审核何时完成,但我必须这样做,因为我需要在适当的时候更改部署配置以适应新的履行属性。履行更改不需要重新审核。一旦部署到服务器,它将有效地处于活动状态,新用户将使用最新的webhook。确实需要重新审查的事项包括:
谷歌控制台上的操作更改,如缩略图或描述等
对所做的
我很难实现requestSync。它总是回来
"error": {
"code": 404,
"message": "Requested entity was not found.",
"status": "NOT_FOUND"
}
我使用Node.js/Express作为后端。与Google Home应用程序的链接/取消链接和“我的行动”同样有效。真正失败的是requestSync部分
我找到的最近的票,虽然不完全一样
我尝试过的事情
agentUserId
我正在努力从我自己的API中得到一个覆盖响应。
如果文档中的标题有误,请纠正我
我说的是文件的完整性
它是关于“运行时类型覆盖”。
在这里,您可以选择显示NODE.JS的代码还是请求JSON
但它是否应该是“响应JSON”?您是正确的。文档已更新,此问题已修复。希望文档现在更清晰。非常感谢您的提示,如果您是谷歌团队的一员,也感谢您的支持!
我一直在尝试做一个谷歌助手的动作,它会检查当前的日期和时间,并根据它返回一个答案,但我无法找到一种方法来使用日期和时间作为动作的条件
有人能帮忙吗?这可能吗?您使用的是webhook吗?
我在Google webhook(Actions SDK)上部署了一个Actions,并使用模拟器与之交互。但是,我收到错误消息:“操作:操作名称当前没有响应。请稍后重试。”如何解决此问题
这些是我产生这个错误的步骤
部署webhook。我验证了它是可公开访问的,使用HTTPS,并且能够处理。它还设置谷歌助手API版本响应标题
将action.json指向可公开访问的webhook,然后预览该操作:
gactions --verbose preview --action_package=acti
我正在将GoogleAssistant与我的应用程序集成。问题是,当我在google home应用程序的设备屏幕中向assistant发送报告状态请求时,我会收到一个200 OK的响应,该响应带有我发送的requestId,但设备屏幕不会随设备状态更新。(在我返回并再次进入设备屏幕后,它会得到更新,但这是通过查询意图完成的)
样本请求正文
{
"payload" : {
"devices" : {
"states" : {
"123
如何在Google Actions中获取用户设备位置(lat、lng)?我在google库中找到了一些使用操作请求用户许可并获取设备位置的示例。但是当创建一个新项目时,它使用的是@assistant/conversation,而不是谷歌上的操作。如果我理解正确,这个对话库是一个新标准,我应该使用它。
很遗憾,我在@assistant/conversation中找不到有关权限或设备位置的任何信息。还有别的图书馆我应该用吗?或者它仍在开发中,我应该坚持使用google上较旧的操作,直到它准备好为止?
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 24 页