Google cloud platform 默认情况下附加500 GB永久磁盘
我正在尝试使用Nextflow在GCP上运行工作流。问题是,每当创建一个实例来运行一个进程时,它都会连接两个磁盘。第一个启动磁盘(默认10GB)和一个额外的“google pipelines worker”磁盘(默认500GB)。当我并行运行多个进程时,会创建多个VM,每个VM都附加了一个500GB的磁盘。有没有办法自定义500GB默认值 nextflow.configGoogle cloud platform 默认情况下附加500 GB永久磁盘,google-cloud-platform,google-genomics,nextflow,Google Cloud Platform,Google Genomics,Nextflow,我正在尝试使用Nextflow在GCP上运行工作流。问题是,每当创建一个实例来运行一个进程时,它都会连接两个磁盘。第一个启动磁盘(默认10GB)和一个额外的“google pipelines worker”磁盘(默认500GB)。当我并行运行多个进程时,会创建多个VM,每个VM都附加了一个500GB的磁盘。有没有办法自定义500GB默认值 nextflow.config process { executor = 'google-pipelines' } cloud { driv
process {
executor = 'google-pipelines'
}
cloud {
driver = 'google'
}
google {
project = 'my-project'
zone = 'europe-west2-b'
}
main.nf
#!/usr/bin/env nextflow
barcodes = Channel.from(params.analysis_cfg.barcodes.keySet())
process run_pbb{
machineType: n1-standard-2
container: eu.gcr.io/my-project/container-1
output:
file 'this.txt' into barcodes_ch
script:
"""
sleep 500
"""
}
提供的代码只是一个示例。基本上,这将创建一个附加500GB标准永久磁盘的VM实例。我已经检查了,其中指定:
计算节点本地存储是计算引擎服务为所选计算机(实例)类型分配的默认存储。目前无法为本地存储指定自定义磁盘大小
我一直在检查,其中指定了:
计算节点本地存储是计算引擎服务为所选计算机(实例)类型分配的默认存储。目前无法为本地存储指定自定义磁盘大小
Nextflow在以前的版本中更新了此项,将保留此项 首次运行
export NXF\u VER=19.09.0-edge
然后在作用域“进程”中,您可以声明一个磁盘指令,如下所示:
process this_process{
disk "100GB"
}
这将更新连接的永久磁盘(默认值:500GB)
仍然没有编辑引导磁盘大小的功能(默认值:10GB)Nextflow在上一版本中更新了此功能,将保留此功能 首次运行
export NXF\u VER=19.09.0-edge
然后在作用域“进程”中,您可以声明一个磁盘指令,如下所示:
process this_process{
disk "100GB"
}
这将更新连接的永久磁盘(默认值:500GB)
仍然没有编辑引导磁盘大小的功能(默认值:10GB)