我收到了一封来自谷歌的电子邮件;他们说我被列为以下项目的管理员:s~stable-firen-358
他们的目标是让谷歌云平台客户更容易找到和理解服务条款、弃用政策和服务级别协议,涵盖所有当前和未来的云平台产品和服务:
谷歌云平台团队希望确保您了解我们最近对谷歌应用程序引擎服务条款(ToS)所做的一些更改,以及我们如何以及在何处向用户传达弃用政策和服务水平协议(SLA)信息
我的问题是:我如何处理这个项目?在哪里可以找到教程?
我的参与是否要收费
谢谢。假设您过去没有在谷歌云平台上创建项目,这意
只是想了解一下bitnami应用程序和谷歌云引擎上的谷歌“点击部署”选项之间的区别
例如:有一个和一个
有人能告诉我他们是如何比较的,有什么不同吗?
-一个与另一个相比是否具有限制性?
-bitnami版本是否以某种方式将您锁定?
-是否存在任何性能差异(除了硬件更改可能带来的明显性能差异)
谢谢。制作应用程序堆栈,可在多个云平台上运行,包括谷歌云平台、AWS、Azure和其他一些平台。您在上看到的Bitnami图像是由Bitnami的员工创建的,并且大部分是云计算中的标准图像
单击部署映像通常
我希望能够通过编程将用户添加到谷歌云中的项目中。我可以通过控制台访问Iam和admin,选择一个项目,然后搜索一个用户,选择一个角色并添加他们。此外,政府似乎说这应该是可能的
项目所有者可以授予团队成员访问项目的权限
通过向团队成员授予IAM角色来获取资源和API。你可以
使用云平台控制台向团队成员授予角色
cloud命令行工具或setIamPolicy()方法
但是API可能缺少这种方法
我可以授予用户对特定资源的访问权限,但我不能给他们提供与控制台相同的所有资源访问级别
我可以使用什么API
当使用HTTP触发器时,我在任何地方都看不到为我的Google云功能设置自定义域的选项。似乎是一个相当大的疏忽。有没有办法使用自定义域来代替它们的位置项目.cloudfunctions.net域或其他类似的解决方法
我读过一篇文章,建议在函数前面使用CDN,并将函数URL指定为pull区域。这会起作用,但会带来不必要的成本——在我的场景中,没有一个内容能够被缓存,因此使用CDN远远不够理想。如果可以的话,您可以获取虚荣URL。这个答案已经有一段时间了
是的,现在您可以为您的Google云功能使用
Jenkins有没有连接到Google云平台的插件
我已经安装了gcloud SDK插件并连接到GCP,在gcloud CLI中我编写了gcloud app deploy,但无法成功部署。从未听说过。但是从中找到一些帮助。也许你应该帮忙。要求我们推荐或查找书籍、工具、软件库、教程或其他非现场资源的问题对于堆栈溢出来说是离题的,因为它们往往会吸引自以为是的答案和垃圾邮件。相反,描述问题以及迄今为止为解决问题所做的工作。从未听说过。但是从中找到一些帮助。也许你应该帮忙。要求我们推荐或查找书籍、工具、
gcloud组件更新失败,MacOS中出现UnicodeDecodeError。目前尚不清楚是什么原因导致MacOS出现此问题,并表示UnicodeDecodeError的修补程序会影响日志记录。我如何克服这个问题
这是我当前的配置
gcloud -v
Google Cloud SDK 190.0.0
beta 2017.09.15
bq 2.0.29
core 2018.02.16
gsutil 4.28
Updates are available for some Cloud SDK com
我的apache beam scio数据流工作要求的工人数量超过了我目前的配额。该作业已成功完成,但仅限于575名工人。不给它所要求的RAM会有什么后果。中间步骤的更多磁盘IO?慢水槽IO?这取决于工作的进展吗?特别是,我的工作非常简单,实际上有两个步骤:
-aggregateByKey
-DO IO per key
我可以自己做实验,但我也对这项工作的成本感兴趣,因为它对时间不太敏感(也就是说,如果更便宜的话,我可以让它运行更长时间) 在这种情况下,与配额更高的情况相比,您的作业的运行时间
是否有任何方法可以在jupyter笔记本中执行相当于gcloud ml engine local predict--model dir=$model_dir--json instances=$json_INSTANCE 让我快速回答一下;在将来某个时候可能会更新的。基本上,应该适用。例如:
import json
from tensorflow.contrib import predictor
def columnarize(instancse):
out = {}
for insta
我正试图使用GoogleDataflow和使用ApacheBeamSDK2.6.0的PubSub实现一次交付
用例非常简单:
“生成器”数据流作业向PubSub主题发送1M消息
GenerateSequence
.from(0)
.to(1000000)
.withRate(100000, Duration.standardSeconds(1L));
“归档”数据流作业从PubSub订阅读取消息并保存到Google云存储
pipeli
我在玩谷歌水桶。水桶不是公共的。这些文件也不是公开的
在我上传.csv文件之后。我点击它,它在谷歌浏览器chrome中显示了一个文件,其中有一个非常复杂的url链接
现在,如果我在另一个浏览器(如IE)中打开该链接,并且没有登录google帐户。我能够得到数据。这是一个缺陷吗?谷歌团队表示这是一个权限问题。我尝试删除所有权限,但该文件仍然可以访问。你的水桶也有同样的问题吗 以下假设bucket名称为xtest,对象名称为test.txt
这个长而复杂的URL包含一个签名,该签名提供访问对象的权限
在谷歌计算引擎上,谷歌应用程序默认凭据是否已经存在?或者是否有必要将其添加为环境变量?对于计算引擎,如果未指定环境变量GOOGLE\u APPLICATION\u credentials,则默认服务帐户将提供凭据
Google云应用程序默认凭据(ADC)不是凭据。ADC是一种定位Google云服务帐户凭据的策略
如果设置了环境变量GOOGLE\u APPLICATION\u CREDENTIALS,ADC将使用该变量指向的文件名作为服务帐户凭据。此文件是一个Json格式的Google云服务帐户凭
我想知道是否有办法重命名现有的“gcloud主题配置”,例如,我想在下面的示例中将“foo”重命名为“bar”
我在gcloud参考文档中找不到任何关于此的内容
从技术上讲,无法使用gcloud命令更改该配置的名称
但是,您可以通过以下小解决方案来更改它:
用于激活所需的配置
用于查找存储配置的目录。您将获得该特定配置的文件路径,如下所示/tmp/tmp.XAfddVDdg/configurations/[您的配置名称]
如果将cd放入目录/tmp/tmp.XAfddVDdg/configur
我想在Google Cloud run上运行一个服务,使用Cloud Memorystore作为缓存
我在与Cloud Run相同的区域创建了一个Memorystore实例,并使用示例代码进行连接:这不起作用
接下来,我创建了一个无服务器的VPC访问连接器,但没有任何帮助。我在没有GKE集群的情况下使用Cloud Run,因此无法更改任何配置
有没有从云运行连接到Memorystore的方法?要将云运行(完全管理)连接到Memorystore,您需要使用称为“无服务器VPC访问”或“VPC连接器
我有一个数据流管道在GCP上运行,它读取来自发布/订阅的消息并写入GCS存储桶。我的数据流管道状态被某个用户取消,我想知道该用户是谁?您可以通过单击页面右侧的Stackdriver链接在Stackdriver日志中查看管道步骤的所有步骤日志“日志”窗格
以下是可从监控系统查看的不同日志类型的摘要→日志页面:
作业消息日志包含云数据流的各个组件生成的作业级别消息。例子包括
自动校准配置,当工人启动或关闭时,
作业步骤的进度和作业错误。工人级错误
源于崩溃的用户代码,并且存在于工作日志中
还可以传
我目前在GCP中有一个管道,它使用云函数接收数据,将数据存放到PubSub,在数据流中处理数据,最后将数据插入BigQuery。我试图计算从云函数摄取到BigQuery的平均消息传输时间(包括插入时间)
我了解Stackdriver指标/仪表盘以及GCP的API仪表盘。我试图简单地将每个服务的所有延迟值相加,但我不确定它是否涵盖了我无法控制的延迟(例如插入到BQ、从数据流推送到pubsub等等)
什么可用指标可以帮助我计算总体管道延迟?如果管道的一部分无法核算,是否有方法对其进行估算或使用外部工
我正在尝试根据区域和名称标准列出我的计算磁盘
但是,以下命令:
▶ gcloud compute disks list --filter="zone=europe-west4-a AND name=redash-postgres-data"
WARNING: --filter : operator evaluation is changing for consistency across Google APIs. zone=europe-west4-a currently does not m
这是我对问题的跟踪:-
SEVERE: Unhandled exception
java.lang.NoSuchMethodError: io.opencensus.trace.Span.addMessageEvent(Lio/opencensus/trace/MessageEvent;)V
at com.google.api.client.http.OpenCensusUtils.recordMessageEvent(OpenCensusUtils.java:222)
at
我目前正在使用云存储中的脚本从Airflow使用DataProcPySparkOperator启动PySpark
run_pyspark_job = dataproc_operator.DataProcPySparkOperator(
task_id='run-dataproc-pyspark',
main='gs://my-repo/my-script.py',
project_id=PROJECT_ID,
cluster_name=CLUSTER_NAME,
我正在使用RESTAPI在云构建中创建触发器
发行
1) 我为分支推送创建了一个触发器,它一创建就触发所有分支并开始构建。(300多个分支机构都启动过一次)
2) 一旦我创建了一个新分支,它就会自动被触发
3) 如果我只想指定2-3个分支。怎么做
有人能为我提出解决上述所有问题的方案吗
提前谢谢 我认为问题1和3可以通过在创建新触发器时添加正确的分支来解决。您可以指定要匹配的分支列表,以便它们触发您的构建,并且您可以使用正则表达式仅匹配某些分支,而不是所有分支
为了创建触发器,您可以按照官方的说
我正在尝试使用MQTT协议将数据从arduino设备发送到GCP IOT核心。我在GCP中创建了注册表和设备,但无法从设备连接。我查阅了文件,但仍然不清楚。
有人能帮我在arduino编码端设置连接的步骤吗。编辑问题,向我们展示您的代码,这样我们就可以查看您是否做错了。@bashammakh,这是一个有趣的集成。我找到了一些将arduino设备连接到Google Cloud IoT的教程,例如,请向我们提供有关您遇到的具体问题的更多详细信息,如果可能,请列出您遵循的步骤。
我有一个自定义vpc-配置了vpc对等和所有功能。现在,我想使用terraform在只有私有ip的vpc下部署一个cloudsql实例。任何人对此都有什么建议。我不太了解Terraform,但在Terraform的文档中:
在“VPC”上搜索,它有以下代码段:
provider = google-beta
name = "private-network"
}
resource "google_compute_global_address" "private_ip_address"
我正在尝试运行我的OsTicket实例,我想使用IMAP从服务器连接到我的gmail帐户。我注意到,当我使用nmap或nc进行端口扫描时,465和587是关闭的。我创建了一个防火墙规则来允许这些端口,用它标记了我的实例,并确保在关闭firewalld的同时关闭了selinux。有人能建议我查一下别的吗?或者他们会介意看一下我的防火墙规则的图片,告诉我它是否有问题。为什么要检查端口465和587?这些是Gmail的传出(出口)端口。您希望所有出站端口都打开。使用Gmail不需要打开传入(入口)端口
我用弹簧靴开发了我的后端
我正在集成云端点,但我遇到了很多错误,因为我可以用一些API上传文件(apk、图像)
这里是我的招摇过市文件:
swagger: '2.0'
info:
description: 'Api Documentation'
version: '1.0.0'
title: 'Api Documentation for apk micro service'
termsOfService: 'urn:tos'
contact: {}
我正在尝试使用AnalysisTemplate进行金丝雀促销,我想知道我是否可以使用Stackdriver、Istio或Anthos作为度量提供者
官方文件中只提到普罗米修斯
我想了解Stackdriver监控账单
我已经为我的一个项目启用了Stackdriver监控API,但我忘了禁用它。该项目在上个月没有接收到任何指标,但我还是收到了账单
你们能帮我弄清楚到底发生了什么吗?我建议你们使用计费云支持,他们有一个聊天服务,你们几乎可以立即与能够检查你们基础设施中的一切并向你们解释计费费用的人交谈,如果有什么问题,他们会提供帮助:)。
您可以在此处联系他们:[1]
它将重定向到你的谷歌控制台,从那里你将不得不点击“聊天”
问候
[1] 我建议您使用计费云支持,他们提供
我想在GoogleGloud集群中运行一个pyspark ml项目(增强树),以与scikit学习相同模型的精度和速度进行比较。我的代码已经准备好了,但我不知道如何在集群中运行它。谢谢 您首先需要的是Dataproc集群。创建集群后,您可以使用官方文档中列出的任何选项。但我会建议下面两个选项中的一个
使用gcloud dataproc jobs submit pyspark。详见
通过Dataproc控制台提交作业。一个详细的例子是
您首先需要的是Dataproc集群。创建集群后,您可以使用官方
有人能帮我从谷歌云库伯内特斯找到PCI DSS 2020或最新版本吗
我找到了这个
但它似乎是最新的
Observe the time-related system-parameter settings for a sample of system components to verify:
• Only the designated central time server(s) receives time signals from external sources, and time sig
我正在做一个语音识别项目。我正在使用谷歌语音识别api。我已经使用dockerfile在GCP flex环境上部署了django项目
Dockerfile:
FROM gcr.io/google-appengine/python
RUN apt-get update
RUN apt-get install libasound-dev portaudio19-dev libportaudio2 libportaudiocpp0 -y
RUN apt-get install python3-pya
我正试图通过一个hello world项目来了解坐骑在GCE中是如何工作的。我有一个现有映像,当我在GCE中创建VM实例时,我选择这个现有映像。对于命令,我输入带有参数的echo“hello world”。当虚拟机启动时,我可以在日志中看到这一点,因此我知道它运行正常
在创建VM实例之前,我创建了一个标准的持久磁盘。创建VM时,我选择了“添加卷”。我为卷指定了以下详细信息:
卷类型:磁盘
装载路径:/hello world data
磁盘名称:hello world测试
分区:
模式:读/写
我按照上的说明成功地建立了一个ip为34.120.167.35的网站,在那里我可以查看我的网站
我的DNS和域名都是由BlueHost提供的。我使用了TXT验证并获得了SSL证书
我还将我的ip添加为上的A记录
一切就绪后,我在浏览器中输入我的域名lihengherychang.com并开始工作。但是,一天后,域名将返回以下错误:
找不到LihengheryChang.com的服务器IP地址。DNS探测已完成。同时,我仍然可以在ip 34.120.167.35上成功查看我的站点
我不知道问题出在
我正在使用Google Cloud TTS进行一个个人项目,虽然它达到每月100万个字符的可能性几乎微乎其微,但我想知道,当达到某个限制时,有没有办法创建警报?在此方面的任何帮助都将不胜感激。在控制台中,您可以看到每天的文本到语音配额:
每天文本到语音查询的标准版字符数
我建议保留并保存计数
要获得配额,请执行以下操作:
IAM&管理>配额
还有语音测试谢谢@Nathan。它显示一条消息,即即使我选择了30天期限(这是我可以选择的最大期限),在所选时间范围内也没有可用的数据。API确实在发送字符
我在尝试terraformapply在Google上启动几个节点时出错,只是为Kubernetes上的GitLab Ci/CD管道准备infra
terraform apply -auto-approve -lock=false
google_container_cluster.default: Creating...
google_container_cluster.default: Still creating... [10s elapsed]
Failed to save s
我正在使用Expo构建2个android应用程序,并使用1个Firebase项目。
对于通知,我使用的是世博会通知。
我已经将Firebase服务器密钥上传到ExpoExpo push:android:upload--api密钥XXX-XXX-XXX。
我已经在firebase项目设置中从Google Play控制台用SHA-1配置了android应用程序凭据,然后下载了最新的Google services.json,然后放入app.json,并设置路径android.googleservice
我有一个用例,其中我有两个应用程序:
React SPA前端,在web.myportal.example上运行
Node Express后端,在api.myportal.example上公开REST api
这两个应用程序都部署在GCP计算引擎中,可以从Internet访问。我能够配置IAP以防止未经授权的访问。我可以指定允许使用UI和API的电子邮件帐户列表
我需要的是GCP IAP的自动化功能。有吗?
简单示例-某些API端点应该只对具有特定组/角色成员身份的人员可用。如何从IAP中提取
使用命令gcloud auth application default login发出以下确认消息:
凭证保存到文件:[C:\Users\\AppData\Roaming\gcloud\application\u default\u Credentials.json]
但是,将在以下目录中创建文件:C:\Users\\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.8\u qbz5n2kfra8p0\LocalCache\Roam
我试图使用gcloud init命令在mac os上验证我的帐户,它会引发与SSL证书相关的错误。我正在使用python3.7和最新版本的googlecloundsdk
> gcloud info --run-diagnostics
Network diagnostic detects and fixes local network connection issues.
Checking network connection...done.
ERROR: Reachability Che
我想在Google Cloud工件注册中心和Cloud Run之间建立一个连接(无需编写代码)。因此,每次推送时,我都想在云上创建/更新一个同名的服务
这可能吗?不,你不能。推送映像的系统必须在触发部署新的云运行修订版后立即使用新映像。如果需要,最新的标记
工件注册表上的推送事件不可能是自动的
我尝试从桌面应用程序()执行编程身份验证
我被困在需要IAP_客户ID的地方
使用下面的代码,其中REFRESH_TOKEN是来自登录的令牌
流,IAP_CLIENT_ID是用于访问您的
应用程序、桌面客户端ID和桌面客户端密码是
客户
如何生成此IAP_客户端ID?在哪里可以找到它?您需要转到控制台:
API和服务->凭证
这里有一个表OAuth2客户端ID
查找名称为IAP App Engine App
复制行右侧的客户端ID
GCP PubSub JS SDK上是否提供长轮询
我希望能够同时处理多条PubSub消息,例如:
在1分钟的时间内,每个主题将发送1000条消息
因此,在接下来的10秒钟内,将有50条消息发送到一个主题。我想订阅一个10秒长的投票,这样就不用处理每条消息了。它将等待10秒,并可能获得所有50条消息
AWS JS SDK有这个功能,我希望我也能在GCP上实现
这是如何在AWS上工作的一个示例:
SQS队列有5条以上的消息
侦听器receiveMessage将在一次receive中同时收到5条消
我阅读了关于跟踪插件()的谷歌帮助,但我不确定在谷歌分析方面该怎么做
我添加了一个流并输入了应用程序url的url,我可以在google云平台的输入设置中找到它
然后,我在我的插件的商店入口配置页面的配置中输入了流ID,在那里它要求输入google Analytics ID(我输入了G-…编号)
但我在GA中没有看到任何数据
我一开始做错了什么?:)
也许我走错了路,所以我也想分享我的目标:我尝试跟踪我的谷歌日历插件的三件事:
查看市场中附加组件的频率
实际安装附加组件的频率
用户在使用插件时在
我是GCP和Terraform的新手。我正在开发terraform脚本,以提供大约50个BQ数据集,每个数据集至少有10个表。并非所有表都具有相同的架构
我已经开发了创建数据集和表的脚本,但是我面临着向表中添加模式的挑战,我需要帮助。我正在利用地形变量来构建脚本
这是我的密码。我需要集成逻辑来为表创建模式
变量tf
terraform.tfvars
main.tf
我尝试了所有可能的方法为数据集中的表创建模式。但是没有一个有效。可能所有表都应该具有相同的模式
我想这样试试
在
resource“
我可以限制API网关请求限制吗
比如说
URL的路径如下所示:
aaaaaa.com/predict
我设置了一个URL,每天只能请求1000个,相同的URL有另一个路径,如下所示:
aaaaaa.com/calling
/每天只能请求500次呼叫
那么,我可以用有限的请求设置路径吗?我用Cloud Endpoint编写,API Gateway(只是Cloud Endpoint的托管版本)也是如此
如果要限制每天和每个请求者的请求,则需要添加API键以区分所有请求者。请求者需要使用它来指示请求在
我在大查询中有一个指定了默认客户管理加密密钥(CMEK)的数据集。这是一项要求,默认情况下可确保使用CMEK对新表进行加密(除非特别豁免)
我有一些数据我想摄入到数据集中,它不需要CMEK,而是可以使用谷歌管理的加密密钥(GMEK)
主要原因是能够利用使用CMEK时不可用的功能,例如能够在大查询中对SQL中的表使用通配符
我的问题是:
使用命令行中的bq load命令,当我将数据加载到大查询时,如何用GMEK覆盖默认键
例如,如果是另一种情况,我可以使用--destination\u kms\u
需要帮助我真的不知道从哪里开始我创建了一个web应用程序,可以访问GCP项目中Firestore的数据
现在我需要使用连接到Firestore的GCP云函数来执行CRUD函数
所有人都在同一个GCP项目上
提前感谢,我真的需要知道从哪里开始使用云函数,如何通过代码(Nodejs)定义和访问Firestore DB。有一个关于如何在中使用云函数设置Firestore的分步指南,但总结起来,它非常简单。您只需导出、初始化sdk并在代码中使用它
您还可以使用,因为云功能是“服务器端”,这将允许您的云功
在GKE中,为了节省成本,我通常将节点数设置为零。当我自动缩放节点(或者说添加)并运行pod时。连接到Loadbalancer并打开URL需要6-7分钟以上。这就是为什么健康检查处于等待状态。有没有办法缩短时间?谢谢,简言之,不太感谢。节点的旋转时间不容易控制,基本上是VM分配、打开、引导操作系统以及执行与Kubernetes相关的其他工作(如配置、添加到节点池等)所需的时间。这需要时间!除了吊舱旋转时间外,这取决于Docker图像(大小/相关性等)
不建议将应用程序缩小到零节点。始终建议启动一
bigquery公共数据:geolite2.ipv4\u city\u块似乎不再存在,我可以查询公共数据集中的其他表,geolite2数据集最近被删除了吗
错误
拒绝访问:表bigquery公共数据:geolite2.ipv4\u城市\u块:
对表的权限bigquery.tables.get被拒绝
bigquery公共数据:geolite2.ipv4\u城市\u块(或者它可能不存在)
我可以确认该表不再公开访问。该表仍然存在,这就是它抛出“拒绝访问”错误的原因,但是它不能公开访问
我不确定是否有
目前我正在本地主机上使用GCP云任务API。通过注入默认凭据,我可以将Google中的任务从localhost排队
在执行任务时,我将传递一个localhost URL作为回调。这对发展有可能吗
或者回调URL必须是托管端点吗?请参阅云任务:
有了此版本的HTTP目标,云任务处理程序现在可以在具有公共IP地址的任何HTTP端点上运行,例如云函数、云运行、GKE、计算引擎,甚至是prem web服务器。您的任务可以以可靠、可配置的方式在这些服务中的任何一个上执行
这意味着,在执行任务时,当前不可能
我正在尝试使用谷歌群组设置访问控制,因为我们的团队越来越大。我已经在Google group admin中创建了一个组,并添加了对GCP项目的访问权限,但是该组的成员在可用组列表中没有看到GCP项目
我错过什么了吗
根据文档:应该可以完全按照我正在做的做。参考:
我们可以通过管理员帐户在google帐户中创建组提问者已经注意到他在admin中创建了一个组。你的回答无助于解决他的问题。托马斯-你能解决这个问题吗?。我也想使用谷歌群组,但使用谷歌群组时IAM策略无效
通过价格计算器,在f1 micro上运行的kubernetes发动机(已安装3年)的运行成本高于未安装的f1 micro
定价计算器或Kubernetes引擎在运行Comitd usage时自动切换到标准实例是否有问题
指定用法
非指定用法
您不能为f1微型机类型、g1小型机类型或独家承租人特优费用申请承诺使用折扣
我打赌计算器会做一些愚蠢的事情,比如,试图查找微折扣的规则。因为它不适用,所以列出了完整的价格。而非承诺关注每月小时费率,确定持续使用折扣(30%)并应用该折扣
您不能为f1微
有谁能帮助我了解如何将数据从BQ(OLAP)移动到on-prem SQL Server relationalDB(OLTP)?这将是一个一次性的回填过程,然后是一个每月重复的过程。在讨论细节之前,我想指出,我们还没有准备好为CloudSQL或BigData掏钱,因此我们决定将BQ中存在的分析数据移动到relationalDB,因为公共站点将从relationalDB读取处理后的数据
我有两个想法:
Microservice可以有一个quartz作业,从BQ读取数据以添加到relationalDB
上一页 1 2 3 4 5 6 7 8 9 ...
下一页 最后一页 共 231 页