Parallel processing 并行化加速床柱

Parallel processing 并行化加速床柱,parallel-processing,neuroscience,Parallel Processing,Neuroscience,我正在使用一个名为bedpostx的fsl工具,该工具用于将扩散模型拟合到我的(预处理)数据中。问题是这个过程已经运行了24个多小时了。我想通过穷人并行化来加速这个过程。为此,我应该在多个终端中运行bedpostx_single_slice.sh,并将其应用于一批切片。不过我还是经常出错。这是我在终端中启动的命令: bedpostx_single_slice.sh Tirocinio/Dati_DTI/DTI_analysis_copy 37 其中第一个输入是包含我的数据的目录,37是我要分析

我正在使用一个名为bedpostx的fsl工具,该工具用于将扩散模型拟合到我的(预处理)数据中。问题是这个过程已经运行了24个多小时了。我想通过穷人并行化来加速这个过程。为此,我应该在多个终端中运行bedpostx_single_slice.sh,并将其应用于一批切片。不过我还是经常出错。这是我在终端中启动的命令:

bedpostx_single_slice.sh Tirocinio/Dati_DTI/DTI_analysis_copy 37
其中第一个输入是包含我的数据的目录,37是我要分析的第I个切片。这是我得到的错误:

terminate called after throwing an instance of 'std::bad_alloc'
what():  std::bad_alloc
Aborted (core dumped)
不幸的是,关于这个工具的文档不多,加上我对编程非常陌生

如果有帮助,下面是bedpostx_single_slice.sh的脚本:

#/垃圾箱/垃圾箱
牛津大学版权所有(C)2012
导出LC_ALL=C
subdir=$1
切片=$2
转移
转移
选择=$*
slicezp=`${FSLDIR}/bin/zeropad$slice 4`
${FSLDIR}/bin/xfibres\
--数据=$subjectdir/data\u slice\uu$slicezp\
--mask=$subjectdir/nodif\u brain\u mask\u slice\u$slicezp\
-b$subdir/bvals-r$subdir/bvecs\
--forcedir--logdir=$subjectdir.bedpostX/diff_slice/data_slice_uzp\

$opts>$subdir.bedpostX/logs/log$slicezp&&echo Done&&touch$subdir.bedpostX/logs/monitor/$slice
bedpostX现在已经被FSL团队很好地并行化了。你最好直接利用这一点

如果您想要一种快速简便的并行化方法,请访问NeuroDebian