我试图在容器引擎上的Kubernetes代码库中运行NFS示例,但无法装载共享。每次启动nfs服务器pod时,内核都会抛出一个错误:
4月27日00:11:06 k8s-cluster-6-node-1内核:[60165.482242]-------------[此处剪切]------------
4月27日00:11:06 k8s-cluster-6-node-1内核:[60165.483060]警告:CPU:0 PID:7160 at/build/linux-50mAO0/linux-3.1
有关扳手协议的定义,请访问。在撰写本文时,只有用于扳手的工具:Go、Java、Node.js和Python。谢谢。那很有帮助
在谷歌云上,是否可以将两个实例组添加到一个后端服务中/ 是的,您应该先创建后端服务[1],然后逐个添加两个实例组[2]。这可以通过运行下面的两个命令来实现:
$gcloud compute backend-services create BACKEND_SERVICE_NAME
$gcloud compute backend-services add-backend BACKEND_SERVICE_NAME --instance-group=INSTANCE_GROUP
[1]
[2]
标签: Google Cloud Platform
google-kubernetes-enginestackdrivergoogle-cloud-stackdrivergoogle-cloud-monitoring
注意:使用伪代码实例表示法:ObjectType(“,|::])
我们有一个集装箱:
容器(“k8s快照”)位于Pod(“k8s-snapshots-0”)位于`状态集(“k8s快照”,规范副本:1)
我们预计在任何时间点最多运行1个吊舱
我们有一个基于日志的计数器度量(“k8s快照/创建的快照”)和过滤器:
resource.type="container"
resource.labels.cluster_name="my-cluster"
logName="projects/my-proje
我们正在探索云扳手作为我们的Elasticsearch集群的替代品,目前正在布局我们的数据库模式
我们想知道是应该使用一个包含大量可空列的大表,还是应该使用包含大量一对一子表的精简基表。对于较大的表,我们将有大约250到1000亿个条目(有些表可能甚至更多),因此大规模的连接/聚合可能是一个问题
列中的空值是否需要与定义的列类型的实值相同的存储空间
Cloud Panner是否对像Elasticsearch这样的稀疏值文档有问题
Cloud Paner处理超过十亿个父子文档的连接/聚合的能力如
下面我设置了一个如下的默认项目
$ gcloud config set project lfs258
Updated property [core/project].
$ gcloud config get-value project
lfs258
不过,我的GCP帐户上不存在lfs258项目,所以我很惊讶我能将其设置为默认值。当我试图查看gcloud在哪里存储其默认值时,没有.gcloud/目录
gcloud在哪里存储其默认值kubectl将它们存储在.kube/config中,但我找不到类
我的工作流程:KAFKA->Dataflow streaming->BigQuery
考虑到低延迟在我的情况下并不重要,我使用文件加载来降低成本。我正在使用BigQueryIO。使用DynamicDestination(每小时一个新表,以当前小时为后缀)编写
此BigQueryIO.Write的配置如下:
.withCreateDisposition(CreateDisposition.CREATE_IF_NEEDED)
.withMethod(Method.FILE_LOADS)
.withT
因此,我创建了一个GKE集群,但没有将节点设置为抢占式
规格改变了,现在我需要让他们先发制人
如何更新群集,使其节点成为可抢占的?抢占的不是群集,而是它的一个节点池。不能将现有节点池设置为抢占式,因此必须在启用该设置的情况下创建一个新节点池,并删除旧节点池
在使用以下gcloud命令启用了preemptible设置的集群中:
gcloud容器节点池创建--可抢占。您也可以通过控制台执行此操作
为了将POD从旧节点池路由到新节点池,您所要做的就是,只要没有带有节点选择器的POD。您可以使用gclo
嗨,有人知道如何从jupyter笔记本和/或云中的datalab实例创建和运行实例吗
我正在尝试运行一个大型计算,我想在云中将任务划分为几个虚拟机。我是否可以从我的datalab笔记本创建并运行实例
例如:
我想在不同的VM中运行10次迭代for循环的每个循环。为此,我需要在我的代码所在的datalab笔记本中创建并运行一个VM。
谢谢你的帮助
编辑:
这是我正在使用的启动脚本的一个示例
gcloud计算实例创建实例11\
--元数据启动脚本='#/bin/bash
sudoapt更新
sudo
在GCP中,我有一个数据流作业,负责将文件从云存储复制到大查询。我希望在成功插入大查询后删除这些文件。有人能提供如何实现这一点以及如何在前一个作业成功后触发另一个作业的指针吗?对于这些类型的场景,通常建议您在体系结构中引入一个用于调度和工作负载编排的工具。GoogleCloud提供了一个托管版本来解决这个用例。您可以在Composer中安排DAG(有向无环图)来启动数据流作业,然后在作业运行成功后,执行其他任务以清理文件或启动下一个进程
示例DAG
要开始使用,我建议查看Cloud Compo
由于某些原因,如果在DAG中导入Google.cloud.storage,我无法在Google Composer上部署DAG文件。如果我试图部署这样一个DAG文件,那么它不会被添加到DagBag中,因此在Airflow网站中会出现一个非链接条目,因此不可用。此时,通常的信息图标显示:此DAG在web服务器的DagBag对象中不可用。它显示在此列表中,因为调度程序在元数据数据库中将其标记为活动。与实际语法错误不同,页面顶部没有错误消息
我把这个问题归结为是否导入google.cloud.stora
我正在使用来理解我的数据流作业
gcloud dataflow jobs list
工作没有问题,给了我一长串的工作。然而,一旦我想调查某项工作,就要使用
gcloud beta dataflow jobs describe $JOBID
我总是得到:
ERROR: (gcloud.beta.dataflow.jobs.describe) NOT_FOUND: Requested entity was not found.
我尝试了多个不同的作业ID,也尝试了gcloud beta dat
我的问题是关于配置GoogleCloudComposer以在同一个GoogleCloud项目中使用相同的网络配置访问GoogleCloudSQL
云SQL配置有与默认网络关联的专用IP。
云编写器已配置网络ID=默认值
执行使用配置有专用IP和默认端口(5432)的PostgresOperator进行连接的DAG时,我们总是会遇到相同的连接错误:
错误-无法连接到服务器:连接超时ou是
在主机“private_ip”上运行的服务器和上的acceptin TCP/ip连接
端口5432
我
如果我对海量数据存储和搜索能力都有一个用例,为什么我会选择Google Cloud Bigtable而不是Google Cloud data Store
我已经看到一些关于SO和其他方面的问题“比较”Bigtable和Datastore,但似乎归结为相同的非特定答案
以下是我目前的知识和想法:
数据存储更昂贵
在这个问题的背景下,让我们完全忘记定价
Bigtable适用于大型数据集
看起来数据存储也是这样?我看不出是什么让Bigtable在客观上更优越
Bigtable在分析方面优于数据存储
怎
我想在确认来自pubsub主题的所有消息后执行一个操作。我尝试使用Stackdriver监控API来度量“未确认消息的数量(按云区域划分)”,但不了解该区域的过滤器以及为什么需要它。我在哪里可以看到我的主题使用的区域?由于一些未知的原因,对于某些主题,API调用会无缘无故地失败。了解所有消息是否已被确认的最佳方法是什么。尝试使用订阅/num\u undelivered\u messages。与按区域划分的订阅/num未确认的消息不同,它位于GA中,不需要指定区域。尝试改用订阅/num未发送的消息
我正在通过数据流作业将扳手数据复制到BigQuery。作业计划每15分钟运行一次。问题是,如果数据是从同时写入的扳手表读取的,则在复制到BigQuery时会丢失一些记录
我在读取扳手数据时使用readOnlyTransaction()。在执行此活动时,我是否必须采取任何其他预防措施?建议使用Cloud Paner提交时间戳来填充列,如update\u date。提交时间戳允许应用程序确定突变的确切顺序
使用update\u date的提交时间戳并指定准确的读取时间戳,数据流作业将能够找到自上次运
这肯定不会那么复杂吧?我尝试过很多方法,但都失败了
简单地使用文件供应器将是最简单的选择,但没有任何效果。问题是,Compute实例没有配置为标准的密码,并且没有密钥
因此,这让我尝试了这样的事情:
resource "google_compute_instance" "test-build" {
...
metadata {
ssh-keys = "jon:${file("./gcloud_instance.pub")}"
}
...
provisioner "file" {
我是谷歌云平台的新手,今天我进入了DialogFlow!
干杯
我有一个关于“免费”版的问题
我可以向我的代理发送/接收多少文本?
文本是否有任何类型的限制?
一天或一个月内我可以发送多少条文本
文件似乎对这个问题并不精确,它只是讨论了一天的音频和音频限制,我在网上找不到任何关于这方面的信息。
我想知道我可以问多少次并收到我的代理人的短信回复
谢谢 根据,您可以在标准版中每分钟发送180个请求
这并不意味着每秒可以发送3个请求,因为请求数是按每分钟计算的
除此之外,请求没有边界
希望能有帮助
想知道是否有人有什么好的技巧,书籍推荐。视频链接或实验室对任何希望学习和参加谷歌云认证系统架构师考试的人都有用
我已经看了这些,看起来很不错:
先决条件:
有一位专业的云架构师-您可以在存储库中找到大量资源。专业和课程也是一个好的开始
我使用谷歌云1年,之后我停止使用它几乎一年
现在我想再次使用它,但资源(虚拟机、快照等)已被谷歌删除。根据谷歌的说法,在试用期超过30天后,所有资源都将被删除
是否可以提交一个恢复请求(整个项目,或者至少一个VM或快照?付费或不付费恢复对我来说并不重要
请给我一些建议
多谢各位
已将我的帐户升级为付费帐户(随用随付)。但仍然没有资源。
只有我的项目名称可见。在这方面非常清楚,正如“恢复数据”部分所述:
恢复数据
请联系谷歌计费支持部门,导出您在试用期间存储在GCP服务(计算引擎除外)中的任何数据
我需要使用与现有表中相同的模式创建BigQuery表。
在标准MySql中有SHOW CREATE TABLE,BigQuery是否也有类似的功能
。。。使用与现有表中相同的架构创建BigQuery表
您可以在新表中使用下面的技巧,因为目标技巧是使用WHERE FALSE,这使得下面的查询在保留模式的同时不需要花费任何成本,输出中只有0行
#standardSQL
SELECT *
FROM `project.dataset.existing_table`
WHERE FALSE
或者您
目前,我的web应用程序允许最终用户使用后端生成的签名URL将图像上传到Google云存储
我还想让这些对象在上传后对这些用户可见。我能想到的最简单的解决方案是允许使用类似allAuthenticatedUsers的内容进行读取访问,但只适用于使用我的应用程序进行身份验证的用户。我还没有找到一种方法来解决这个问题,但这似乎是一个非常明显的解决方案,可以解决一个常见的问题。如果这是不可能的,我猜这是因为谷歌没有区分这个用户是如何被认证的,只是他们是
我想到的另一个解决方案是在用户首次登录后为他们创
我们有多个windows server 2016正在运行,将在上自动更新。我想将Windows更新模式更改为手动
问题是在创建实例时,由于运行更新安装,out软件安装多次失败。我尝试将实例元数据“禁用代理更新”设置为TRUE。但它似乎不起作用。
请提供有关如何在创建和启动实例时修改windows update模式的帮助。快速回答是,您无法使用Google提供的windows图像
您可以创建Windows虚拟机,根据需要进行配置,然后创建用于启动新实例的新映像。这将通过一些努力实现你的目标。这是管
我试图使用气流上传一个目录与拼花文件到地面军事系统。
为此我试过了
我尝试了以下选项:
选择1
src=/*.拼花地板
它出错了:没有找到这样的文件
选择2
src=->其中path是目录路径
它的错误是:是一个目录
问题
无论如何,FileToLoglecloudStorageOperator是否可以扩展到目录级别?
有没有其他方法可以做同样的事情?
简短回答:目前这是不可能的。但我将把它作为一个功能请求,并尝试在即将发布的版本中添加它
在此之前,您可以使用bash操作符和gsutil同时复制
正在尝试启用Google云标识平台,但我收到一条错误消息,该平台无法启用。你知道为什么吗
谢谢
Stefan要启用Identity Platform,您需要在项目中启用Firebase
请检查通过启用firebase服务解决的类似身份平台启用问题
要启用云标识平台,您需要成为已启用计费的项目所有者。请检查您能否更详细地描述您正在执行的步骤以及生成的消息的更多细节?您如何启用云标识平台?你能粘贴错误信息吗?您是否遵循了为您正在使用的项目设置identity platform所需的权限?@Aliou
我创建了新的谷歌云平台项目和数据存储
数据存储创建为“数据存储模式下的Firestore”
但是,我认为如果发生冲突,Firestore数据存储和旧数据存储的行为会有所不同
e、 g以下情况
procA: -> enter transaction -> get -> put -----------------> exit transaction
procB: -----> enter transaction -> get -> put -> exi
上面列出的生成文件夹/var/lib/docker/tmp/docker-builder653325957/build,不是本地文件夹。Cloud Builder是否以该格式创建临时文件夹
如何让它复制我的本地build文件夹
我还尝试了COPY./build./,但CLI输出是相同的
下面是Dockerfile
$ gcloud builds submit --tag gcr.io/projectname/testserver
// ... works fine until the COPY
基本上,我在扳手表中有16个二级索引。当Api从扳手表检索数据时,延迟非常高。我们已经提供了足够的扳手节点,表的大小约为5GB。因此,如果我创建一个索引并将所有键添加到一个索引中,而不是16个二级索引,那么这件事是否可行。您的查询是通过二级索引执行的,还是您可以给出一个具有高延迟的查询的示例?我这样问是因为通常二级索引有助于提高通常执行的查询的速度。我知道二级索引可以提高性能,而在二级索引上执行的查询仍然需要大约37秒才能得到结果。对于您在这里和后面介绍的内容,看起来您可能需要通过以下方式改进查
我有一个主题,它在发布时将事件推送到云运行端点,并且我在存储桶上有一个触发器来发布这个主题。云运行中的容器无法处理该事件,它已经重新启动了数百次,我不想在这方面浪费金钱。如何限制在云运行的容器上失败时重试?如果我们查看“我们发现”中提到的最大传递尝试次数的概念(--最大传递尝试次数)。与此相关联的是一个名为死信主题的主题(--死信主题)。这似乎定义了,如果尝试传递发布子消息的次数超过最大次数,则该消息将从与订阅相关联的消息队列中删除,并移动到与死信相关联的主题。如果您为您的环境定义了此选项,那么
我有一个虚拟机,谷歌云平台上的windows实例(GCE)。我希望每次在实例开始时都运行一个程序(.exe)
我可以通过将文件放入启动文件夹来运行该文件。但是我想使用google建议的启动脚本运行它:在Windows虚拟机实例启动/重启时在GCP上运行.exe
单击VM实例上的编辑
扩展管理、安全、磁盘、网络、唯一租赁部分
在元数据部分中,提供windows启动脚本cmd作为元数据键
在值框中,提供/path/to/exe文件
谢谢Gautam的回复,但我仍然无法运行启动脚本。我创建了一个文本文
是否可以将存储装载到Google永久磁盘(标准永久磁盘)?您可以使用Cloud storage FUSE,它是一种FUSE适配器,允许您在Linux或macOS系统上将存储桶装载为文件系统
云存储FUSE可以在任何连接到云存储的地方运行,包括Google Compute Engine VM或内部部署系统。因此,它可能会满足您的系统的任何需求
如果这是您选择的方式,您可以找到有关它如何工作以及如何在此环境中进行设置的更多信息
让我知道这是否对您有帮助。您的意思是通过FUSE将GCS存储桶装载到计算
标签: Google Cloud Platform
firebase-authenticationgoogle-cloud-endpointsgoogle-workspacegoogle-identity-toolkit
我目前正在研究一个绿地项目最合适的认证/授权方法,该项目将完全托管在谷歌云平台上。我写这篇总结是为了对我喜欢的方法做一个合理性检查,并就是否有我不知道的考虑因素或不准确之处寻求反馈。我希望在实施相关战略方面具有相关经验的任何人提供意见
我的主要疑问/担忧是:
如何管理或否定OIDC过程中的作用域?不应由用户授权适当的访问;这应该由创建用户的组织IT管理员设置
G Suite IT管理员能否将参数应用于自动分配预定义的“Google Identity/IAM”策略组/角色的用户(自定义和/或非自
为什么我看不到维基百科对塞缪尔的引用,即使它在使用NLP分析时可用。但是在谷歌自然语言演示期间,一些实体在实体提取中有引用
请参考下面的屏幕截图,
请看下面的数字:Samuel,同事和Gnanavel
维基百科文章与实体2相关,即Gnanavel,而不是与实体1相关的Samuel
如果你点击这个链接,它会带你到
此外,根据您将发现,有时与实体关联的元数据包括Wikipedia URL。这就是为什么您可能会看到针对某些实体的此类文章
VPC-SC支持的产品页面将登记以下存储库,以供所有项目使用
然而,似乎gcr.io/google-appengine也可用 可能是gcr.io/google-appengine不适用于每个项目,或者文档需要更新。我要求文档的维护人员进行澄清
谢谢你指出这一点
团队回复后,我将更新此答案
title=无法执行操作,message=无法执行请求的操作,验证输入是否有效,detail=com.google.api.gax.rpc.failedPreceptionException:io.grpc.StatusRuntimeException:FAILED\u Preception:要开始训练模型,需要每个注解规范有8个注解进行训练,1个用于验证的注释和1个用于测试的注释。当前数据集不满足最低要求。请在培训之前导入更多带有这些注释规范的数据:[2,4,1]。
任何线索,数据集都符合go
我正在使用Airflow and Cloud Composer,因为我在Airflow Scheduler上遇到了一些问题(速度慢或停止)
版本:composer-1.10.4-airflow-1.10.6
我用气流启动了一个“大”收集(因为我有时需要它),以测试我的管道的可伸缩性。
结果是,我的调度程序显然只调度任务很少的DAG,而大DAG的任务没有调度。你对此有什么见解或建议吗
以下是有关我当前配置的信息:
群集配置:
10个群集节点,20个VCPU,160Go内存
气流配置:
核心
我正在尝试运行Elasticsearch BERT应用程序,并希望了解使用GPU微调模型的最低配置。我应该使用什么机器配置
参考github:您可能需要将不同的GPU连接到您的计算实例以测试性能。Tesla T4是最便宜的,而最昂贵的
计算实例的n1 highmem或n1 highcpu系列将是一个很好的起点
谷歌发布的一些规范:
如果GCP不是强制性的,请查看
我试图通过cloudshell终端的以下python代码列出我的帐户可以使用的项目
from googleapiclient import discovery
from oauth2client.client import OAuth2Credentials as creds
crm = discovery.build(
'cloudresourcemanager', 'v1', http=creds.authorize(httplib2.Http()))
filter = "
使用GoogleCloud,存在一个BigQuery视图表,用于查询两个项目
但是,在视图所在的项目上,我们希望从Airflow/Composer对其运行查询。目前它以403失败
AFAIK它将使用默认的composer服务帐户-但是它没有访问视图sql中使用的第二个项目的权限
如何授予composer的服务帐户访问第二个项目的权限?我认为您必须将该服务帐户添加到project IAM中。考虑像用户帐户一样的服务帐户:您有一封用户电子邮件,您可以对不同的项目和组件进行授权。与服务帐户电子邮件完全
无法使用从gcloud下载的包“google-cloud-sdk-307.0.0-darwin-x86_64.tar.gz”安装gcloud sdk。
支持的Python版本为3.5到3.7,以及2.7.9或更高版本
这是否意味着不支持Python 3.7.4
enter code here
$python3-V
Python 3.7.4
$which-蟒蛇3
/usr/local/bin/python3
/usr/bin/python3
美元/谷歌云sdk/install.sh
欢迎使用谷
我创建了一个基于客户日志的指标和一个警报。但它没有给我任何提示。
然后我创建了一个警报策略。
提醒:
聚集者:计数
时间:30分钟
如果:Anytimes系列违反,则触发条件
高于0持续30分钟。
虽然很多次条件反射被触发,但我从未收到通知。图表也显示为无数据。您的问题似乎与配置错误或其他错误有关,需要调查和信息共享。建议通过以下方式向GCP开放一个问题追踪器,以便进行调查。
我假设psql连接尝试通过错误的网络接口或其他东西(这可能只是我对网络内容的无知)——我如何才能让它工作?我错过了什么
PS:这基本上和问题相同,但那个里的评论者似乎想要一个与地形相关的问题和一个与连接相关的问题
一些截图:
虚拟机IP:
数据库IP:
虚拟机的网络配置:
数据库实例的专用IP配置:
这是专用网络的设置:
我不明白为什么DB实例的专用IP(10.78.0.3)不是专用网络范围内的IP(10.2.0.0-10.2.0.24,对吧?)。。?这是我的问题吗?回答你的问题:
我
我正在尝试在我的GCP项目中将云SQL从一个子网移动到另一个子网。基本上,我创建了一个云SQL实例,它使用google托管服务连接,IP范围由google默认分配。
我想通过创建的托管服务连接切换到自己的CIDR I设置
我正在按照
尝试切换到临时网络/vpc,然后使用自己的托管服务连接连接回我的自定义vpc
$gcloud--project=myprj beta sql实例补丁mydbid--network=tmp\u vpc--no assign ip
以下消息将用于修补程序API方法。{“
我正在尝试创建DNS记录集,以便从以下位置添加google workspace MX记录:
但获取值错误:
这是什么意思
MX优先级编号缺失,您可以尝试:
1 aspmx.l.google.com
而不是
aspmx.l.google.com
您能否提供特定错误消息的图像?您正在尝试将“@”用于您的GCP云DNS区域吗?省略你的私人信息,你能分享你试图放在谷歌云DNS区域的信息截图吗?(一个屏幕截图会很理想)你提到“但是获取值错误:”,但没有显示错误消息,你能更具体一点吗?@Frank upd
我正在做一个项目,需要将用户的文件存储在谷歌云存储桶上。默认情况下,这些文件是私有的,但如果我的后端允许访问数据库中的特定元素,则其他人应该可以读取这些文件,在数据库中,这些文件与其他数据一起被提及。我的想法是通过公共URL使每次上传都公开可读。这样,我就可以简单地将URL存储在数据库中,而不必担心授予对bucket中文件的访问权限
为了安全起见,每个文件的名称/目录中将包含一个uuidv4令牌,因此,如果uuidv4令牌未知,则任何人都无法访问该文件,因为无论如何都猜不到它
关于文件的安全性,
我有一些自定义sql从BigQuery读取数据。我怎样才能做到这一点?我尝试使用选项作为查询,但它不起作用。它将忽略查询选项并读取完整表
Dataset<Row> testDS = session.read().format("bigquery")
//.option("table", <TABLE>)
.option("query"
我正在尝试自动化api配置和api网关创建,以使用terraform公开云运行服务。直到昨天,它还运行得很好,api网关正在为流量提供服务。
但是考虑到大量的请求击中了API网关,我决定将读取请求的配额增加到一个更高的数字&那是在我修改openapi-swagger文件为我的API添加配额的时候
它工作了一段时间,但现在当我触发我的管道时,它失败了,出现了一个内部服务器错误。我还尝试使用cloud命令创建一个API网关,将verbosity设置为DEBUG,但找不到任何有用的东西。
使用open
我试图在GCP中找到一种方法,自动将定义的IAM角色、策略和策略绑定部署到选定的GCP项目或所有GCP项目
我知道GCP组织是存在的,它们可以用于在一个地方定义IAM资源,以便将它们继承给子项目。然而,在GCP中组织不是强制性的,一些客户将使用旧的结构,其中项目并排存在,没有继承,并且不希望迁移到组织
一种解决方案是创建脚本,它可以迭代项目并创建所有内容。但是,最好使用GCP本机解决方案。是否有一种GCP原生方式可以将定义的IAM资源(可能还有其他项目级配置)部署到特定的GCP项目或所有项目中,
我想为Google云存储中的bucket设置一个对象生命周期策略,如果较新版本尚未达到最低使用年限,该策略将阻止删除旧的非当前版本
目前,我在生命周期策略中设置了以下标志和值:
更新版本数:3
非流动日起天数:366天
此策略将确保在最旧版本为366天非当前版本且有2个较新版本和一个实时版本时删除该版本
我的挑战:我想确保我始终保留至少一个至少366天的非当前版本。
在我目前的情况下,我可以
实时版本:0天以前
版本2:1天大
版本1:365天
(年龄指非当前版本的天数)
如果我上传一个
我有一个安装连接磁盘的启动scipt。我尝试将sleep设置为10,尽管在安装磁盘之前VM可以登录
如何确保虚拟机仅在安装磁盘后才可用于登录/绿色
我的启动脚本有一个用于安装磁盘的代码段
#装入外部磁盘--
#注意:如果此磁盘在此点连接,则所有后续命令都将失败
睡眠10;
苏多尔斯布莱克
sudo mkdir-p/mnt/disks/datadisk
sudo挂载/dev/sdb1/mnt/disks/datadisk
您无法更改虚拟机状态的行为。事实上,状态取决于VM是否已经作为“硬件”运行
1 2 3 4 5 6 ...
下一页 最后一页 共 227 页