问题说明了一切。在我看来,矢量化与令人尴尬的并行问题密切相关。换句话说,所有可矢量化的程序都必须是令人尴尬的并行程序。这是正确的吗?令人尴尬的并行问题是不需要努力以并行形式编写的任务矢量化是一个常规程序并行化的过程
所以,这不是一种情况,一种是另一种的逻辑子类型,而是一种趋势。问题越接近令人尴尬的并行,所需的矢量化就越少。并行是尽可能多地使用我们的计算设备,因此我们尝试以这样一种方式安排任务,使它们的执行几乎彼此独立
现在,并行计算中的矢量化是并行化的一种特殊情况,在这种情况下,默认情况下在单个
如何设置Scilab使用的并行运行功能的内核数?来自:
使用配置参数调整并行化
正如我们在调用序列中看到的,可以添加
配置参数作为并行运行的最后一个参数。这
参数由params模块处理,并使用init_param()
(有关如何处理参数的更多信息,请参见
添加参数、设置参数和删除参数)的帮助页面
工人人数
并行使用的计算资源数量可由
参数nb_工人。默认值(0)使用的工人数量与默认值相同
有可用的内核
代码示例
function a=g(arg1)
a=arg1*arg1
endfuncti
例如,我按顺序运行4个脚本:
%run -i script1.py
%run -i script2.py
%run -i script3.py
%run -i script4.py
执行每项任务的时间相当长。iPython笔记本中是否有任何方法可以并行运行脚本并从所有脚本返回局部变量(2或3个重要变量)?在顺序执行中,它工作得很好,但时间很长。先谢谢你
我尝试应用此代码,但仍停留在第一部分:
def my_func(my_file):
!python pgm.py my_file
可能有一个简单的解决方案,但目前我还不能理解它。也许有人能帮我
因此,我有以下问题:
我总共有NSAS作业要完成。由于我机器上的资源太有限,无法同时启动所有N作业,我只想同时启动sayk=5。每次完成一项工作,我都想开始下一项工作。作业完成的顺序并不重要
目前,我让所有k=5作业在开始下一个5个作业之前完成。
下面是我目前正在做的伪代码:
/*The following macro starts k threads*/
%macro parallel_processing(k);
option
Blackfin在循环缓冲区中执行零开销循环。它如何认识到迭代次数已在不比较或减少计数器的情况下完成?来自Blackfin文档:
sequencer支持零开销循环机制。这个
sequencer包含两个循环单元,每个单元包含三个寄存器。每个
环路单元有一个环路顶部寄存器(LT0,LT1),一个环路底部寄存器(LB0,
和循环计数寄存器(LC0,LC1)。
两组零开销循环寄存器使用硬件实现循环
计数器,而不是用于评估循环条件的软件指令。之后
评估,处理分支到新的目标地址。两套regis-
TER包括
我正在尝试并行化我的代码的一部分,尽管它使用了rayon和并行迭代器par_iter()和par_extend(),但它看起来仍然像是在单个线程上运行
我只需创建一个i32的向量,用很多值填充它,然后将这些值移动到整数的collections::HashSet
我的单线程代码:
use std::collections::HashSet;
fn main() {
let my_vec: Vec<i64> = (0..100_000_000).collect();
我在slurm中运行一组多个并行作业(大约1000个),每个作业都必须分配给一个CPU。读了这本书,我发现:
最佳实践、大量工作
考虑将相关工作纳入一个计划
出于性能原因,具有多个作业步骤的单个Slurm作业
并且易于管理。每个Slurm作业可以包含多个作业
步骤和Slurm中管理作业步骤的开销要低得多
而不是个人工作
作业数组是管理作业集合的有效机制
具有相同资源需求的批处理作业。大多数Slurm命令
可以将作业数组作为单个元素(任务)或作为
单个实体(例如,在单个命令中删除整个作业数组)
这
我和一个有一些MATLAB代码的人一起工作,他们希望加快速度。他们目前正试图将所有这些代码转换成CUDA,使其在CPU上运行。我认为使用MATLAB的并行计算工具箱来加快速度会更快,并在拥有MATLAB的分布式计算工具箱的集群上运行它,这样我就可以跨多个不同的工作节点运行它。现在,作为并行计算工具箱的一部分,您可以使用。然而,我对这将如何工作感到困惑。使用parfor(并行化)和gpuarray(gpu编程)这样的东西是否相互兼容?我能两者都用吗?在使用每个工作节点上可用的任何GPU的同时,是否
答案似乎是否定的,因为光线行进是高度有条件的,即每一条光线都遵循一条唯一的执行路径,因为在每一步中,我们都会检查不透明度、终止等,这将根据单个光线的方向而变化
因此,SIMD似乎在很大程度上无法加速这一进程;相反,加速需要MIMD
这有意义吗?还是我遗漏了什么?仅在SSE允许您并行处理向量的情况下。过去几天,我为menger海绵构建了一个基于软件的raymarcher。目前没有使用SIMD,我也没有使用特殊的算法。我只是在X和Y中从-1跟踪到1,这是目标纹理的U和V。然后我得到了一个相机位置和一
我构建了一个示例程序来检查并行任务的性能,以及并行运行的任务数量
一些假设:
操作是在独立于另一个线程的线程上进行的,所以线程之间不需要同步机制
其目的是检查以下各项是否有效:
1.产生尽可能多的任务
或
2.限制并行任务的数量,并在生成剩余任务之前等待某些任务完成
节目如下:
static void Main(string[] args)
{
System.IO.StreamWriter writer = new System.IO.StreamWriter("
下面是逐行比较:
| VS 11 AMP restrict(amp) functions | CUDA 4.1 sm_2x __device__ functions |
|------------------------------------------------------------------------------|
|* can only call functions that have |* can only call functions that have
我正在尝试使用cilk_为以下代码生成一个并行cilk代码:
c[0:2*n-1] = 0;
for (size_t i=0; i<n; ++i)
c[i:n] += a[i]*b[0:n];
最简单的方法是编写一个cilk_for循环,在输出系数上循环,在循环内部,为每个输出系数累积一个内积
调用输出系数c[k]。循环将如下所示:
cilk_for( k=0; k<2n-1; ++k )
c[k] = __sec_reduce( a[...:.
免责声明
我是一家小商店的系统管理员
形势
我将接收大约3 TB的数据,其中每个逻辑单元由
包含以下内容的目录:
包含元数据的CSV格式的文本文件
包含实际数据的二进制文件
所以最后我有一个巨大的目录树,里面有很多小文件
我的工作是将元数据文件从CSV转换为XML。我通常使用Perl来处理这个问题。新创建的XML文件将与相应的二进制数据一起复制到一个新目录中,该目录将由封闭源代码软件包的导入程序读入。此导入过程本质上是串行的。它只是一个接一个地读取另一个目录并对其进行处理。越快越好
在过去,
我有一个java程序,可以处理800个图像
我决定使用Condor作为分布式计算的平台,目标是我可以将这些图像分割到可用的节点->得到处理->将结果合并回来
假设我有4个节点。我想将处理过程划分为每个节点上的200个图像,并将最终结果合并回给我
我试着正常执行它,将它作为java程序提交,并声明requirements=Machine=。。(说明所有节点)。但它似乎不起作用
如何划分处理并并行执行它?HTCondor绝对可以帮助您,但您可能需要自己做一些工作:-)
我们会想到两种可能的方法:作业
我正在尝试编写一个shell脚本来执行某种算法,其中一部分需要跨网格引擎集群上的多个输入文件并行执行MPI可执行文件。从我读到的内容来看,mpirun似乎通过使用冒号或使用应用程序上下文/模式文件支持MPMD执行,然后执行mpirun-app my_appfile。下面是我的应用程序文件的外观
-np 12 /path/to/executable /path/to/dir1/input1
-np 12 /path/to/executable /path/to/dir2/input2
-np 12
我想用MPI中的4个处理器构建一个二叉树。在根目录下,所有处理器一起工作,下一级我将处理器分为2个组,在叶目录下,每个处理器负责构建本地树
我使用mpi_comm_slpit将当前的通信器分为两部分。但问题是我如何追踪亲子关系?像串行编程一样,我们使用指针指向左向右的子对象?我如何在MPI中处理它?谢谢
[1-4] <-- root
[1-2] [2-3]
[1] [2] [3] [4]
无需分割通讯器。在二叉树中,功是2^n,其中n是级别。根据您是向上
在神经网络中,你只需要计算许多连续的和。然而,对于现有软件包的深层次技术问题,我的推理并不完全清楚
有许多软件技术,每种技术似乎都有一个特定的并行化重点。我试图确定使用什么样的软件技术
openMP-一台机器上的多个内核或cpu
MPI/MPICH—网络上的多台计算机
hybrid-openMP,用于包装在MPI/MPICH中的本地计算机
对于神经网络,您可能希望使用GPU。是的,这可能是真的。但是,在这种情况下存在硬件限制。
一般来说,我正在编写一个自定义流收集器,据我所知,它与一个供应商、一个累加器和一个组合器组合在一起。在我的custome收集器中,我意识到累加器不是线程安全的,所以我将合并器设置为null,收集器。特性设置为IDENTITY\u FINISH。代码可以通过编译,但存在运行时异常,因为组合器不应为null,这已由NotNull注释指示
我的问题是,如果我在收集器中提供了一个带收集器的组合器。特征是IDENTITY\u FINISH,那么累加器是并行运行还是并发运行,还是仅在一个线程中运行而没有争用
我正在尝试使用ansible playbook并行启动两个作业。
我必须发布到http才能开始工作;一旦作业排队,完成作业可能需要1-3分钟。我需要在后台并行启动两个作业,然后轮询日志中的成功消息或失败消息,并且还需要超时。我确实有对SERVERNAME的ssh访问权,因此regex搜索部分几乎可以正常工作;然而,当它在日志中发现startedfailed时,我并没有找到一种使它失败的方法。尝试状态=缺席,但这似乎适用于其他等待组件
这一切在Ansible中都可行吗?我想出了下面的yaml
--
我有一个相当大的网络,需要大量的GPU内存。我有4个GPU,我使用nn.DataParallel。当我定义批量大小为4(每个GPU 1个输入)时,我的GPU内存不足。我试图torch.cuda.empty_cache()并从GPU中删除任何不必要的数据,但这还不够
我正在寻找一种方法,将4个GPU视为具有双内存的2个GPU,这样我就可以使用2的批处理大小(1个输入用于两个GPU)。有什么办法吗
谢谢。我想你应该调查一下。它与pytorch以及tf一起工作。您使用的是32位浮点吗?您是否尝试过混合
我很想知道,我们如何在不到O(n)个时间复杂度的情况下,使用多个处理器(并行计算)确定阵列中的最大/最小元素?到目前为止,您自己做了哪些尝试?我想过维护logn处理器,并将阵列划分为相同数量的部分。然后将每个部分交给单个处理器,并搜索最大元素。但是,在从每个处理器获得最大值后,我们还需要做同样的事情吗?
我是GPU并行编程的初学者。我试图在512x512 RGB图像大小和9x9滤波器之间实现卷积运算
我收到一个错误:遇到非法内存访问
这是我的内核函数:
__global__ void blurImgKernel(uchar3 * inPixels, int width, int height,
float * filter, int filterWidth,
uchar3 * outPixels)
{
// TODO
int c = threa
假设我有一个矩阵,表示我需要在集群上并行计算的任务。
我将矩阵划分为子矩阵,每个子矩阵对应一个可用进程。
但子矩阵仍然太大。执行MPI_Send()操作需要相当长的时间
因此,我的想法是将子矩阵细分为更小的块。异步发送数据块,然后以某种方式异步接收数据块,对其进行计算并将其发送回。其思想是接收过程将花费更少的时间等待数据到达,并且可以将该时间用于计算
这可能吗?
这有意义吗?
我将在接收端使用什么MPI调用来检测已接收的数据块并调用函数来计算该数据?我想我可以使用一个循环和MPI_Test()来
我有一个场景,其中有3个500万行的文件,每个文件有3周的数据被批量映射到一个临时表。它们平行运行。如果一个文件的数据传输失败并出现并发错误,那么将这3个文件的数据有效加载到stage表中的最佳方法是什么。
(我在采访中被问到了这一点。)在ODI 12c中,可以通过选择映射的物理选项卡中的使用唯一临时对象名称复选框来实现并行目标表加载。每个并发会话的工作表将具有唯一的名称
我在本书的并行目标表加载部分详细讨论了这一点。并行表加载是一本很好的读物。谢谢你的回复@JeromeFr
我在两台装有Windows7操作系统的计算机(“suaddell”和“o01”)上安装了MPICH2。我使用VC++Express Edition 2008进行编译。一切都很好。我可以在两台主机上运行简单的“Hello World”MPI应用程序。但当我尝试运行简单的MPI_发送和MPI_接收应用程序时,程序并没有结束,而是挂起。通过使用资源监视器,我可以看到它在我的计算机和远程主机上无休止地运行。若我按下“Ctrl+C”,它就结束了,并显示下面的消息,它假装一切正常
mpiexec命令和Ct
我可以这样做来提高性能,避免在更高的迭代中遇到缓冲区问题吗。最大迭代次数=6000次
While(numberIterations<= MaxIterations)
{
MPI_Iprobe() -- check for incoming data
while(flagprobe !=0)
{
MPI_Recv() -- receive data
MPI_Iprobe() -- loop if more data
}
u
我正在尝试使用NS-3的MPI分布式仿真功能。
我在模块中实现了一个应用程序和一个节点类。
我还有一个工厂类作为单例对象。我是否需要考虑在我的单级类中使用监视器和互斥体进行同步?p>
在一些函数中,我正在改变类变量,因此看起来我应该考虑线程安全性,但是我不确定MPI是如何工作的,并且如果它实际上创建了一个对象的实例,或者它在每个进程中都创建了单独的对象。
感谢ns-3 MPI支持将ns-3节点分布在MPI计算节点上,因此,如果您有一个进程级工厂单例,则每个MPI处理节点上将有一个此工厂的实例,并
我有openMP和MPI供我使用,我想知道是否有人遇到过任何洪水填充算法的并行版本(最好是c)。如果不是的话,我会对如何实现并行化的草图感兴趣——考虑到它是基于递归的,这可能吗
如果你需要刷新你的记忆,维基百科有一个很好的例子
非常感谢您的帮助。洪水填充没有“固有的”递归性,只是为了做一些工作,您需要一些关于以前发现的“前沿”单元的信息。如果你这样想的话,很明显并行性是完全可能的:即使使用一个队列,你也可以使用四个线程(每个方向一个),并且只有在每个线程检查完单元后才移动队列的尾部。或者相当于四
我有一个连接/组合图像集合的代码。我想将这个顺序代码重新构造成一个并行/分布式应用程序,因为我的图像集合非常大(大数据:-)。我正在考虑Map/Reduce,但不确定在Map/Reduce下这是否可行
#Sequential Code
Result.Image <- NULL
foreach(Image in Image.Collection) {
Result.Image <- CombineImage(Result.Image, Image)
}
#顺序代码
Result
我有几个中等大小(1到5GB)的二进制文件,我想使用Erlang读取和处理这些文件
每个文件都有不同大小的记录,即一条记录的大小为200 kb,而另一条记录的大小可能为800 kb。记录大小可以通过读取记录的前几个字节来获得。由于它是一个二进制文件,所以两个记录之间没有分隔符
为了处理这些文件,我们可以编写多线程程序,但为了好玩,我想到了使用Erlang并行处理文件
我是Erlang的新手,所以我不知道如何将文件分割成块并将这些块传递给Erlang进程
任何人都可以提供一些想法吗?为什么不为每个
我正在运行一些用fortan编写的代码。它由几个子程序组成,我使用模块中指定的全局变量在它们之间共享变量
使用多个CPU时会出现此问题。在一个子例程中,代码应通过全局变量的值更新局部变量的值。在一些通过子程序的随机过程中,当我使用多个CPU运行它时,代码不会更新变量。但是,如果我暂停它并使其上升,以强制代码传入更新变量的代码段,它将工作!魔术然后,我实现了一个循环,检查变量是否已更新,并尝试在代码中使用(GOTO)返回以使其更新变量。。。。但对于2次尝试,它有时仍然不更新变量。如果我只使用一个内
我正在用python进行并行化。。我有一个大的计算需要并行。
起初我有一个大的for循环for(例如1000个粒子),所以我的过程不是独立的,我需要独立的过程来使它并行。所以我把for循环分成2个for循环计算出了500500个粒子,我需要在两个不同的核(处理器)上并行运行这两个独立的循环,这可能吗?
如果是,那怎么办?请分享一些指导
for i in particle1
some processes
......
print ( something)
第二环路
for i i
我以前通过MPI(和Fortran:)使用过并行计算。我现在想使用IPython的并行功能
我的问题与以下代码的糟糕性能有关,灵感来自:
一个处理器的结果如下:
10000 loops, best of 3: 43 µs per loop
100 loops, best of 3: 4.77 ms per loop
你能告诉我结果对你来说是否正常吗?如果正常,为什么计算时间会有如此巨大的差异
致以最良好的祝愿,
弗拉维安 并行处理不是免费的。将作业项发送到客户机并随后接收结果的相关成本称为开销
在此基础上,描述了
“现在,您可以对Azure或本地(标准)环境中的服务器使用标记。使用标记,您还可以将部署顺序从并行切换到顺序。”
请参见此图片:
但是,在我们的MRM版本(ReleaseManagementConsole.exe;12.0.31101.0;2014年11月1日)中,此选项不可见
这是一个bug还是可以在MRM服务器上配置?此功能仅针对vNext部署序列启用
如果您正在创建基于代理的模板,您将看不到下拉列表。发行说明描述:“现在您可以在Azure或本地(标准)环境中的服务器上
我试图在处理器之间划分一个数组,这样每个处理器都从数组中的不同部分获取点。例如,如果
A = {1, 2, 3, 4, 5, 6, 7, 8}
我使用两个处理器,我希望P1处理{1,3,5,7},P2处理{2,4,6,8}
当扩展到非常大数量的点(百万)和处理器(128)时,这是很棘手的。在我的函数的以前版本中,我只给了P1第一个点块,P2下一个点块,依此类推(使用MPI\u gatherv很容易)
是否有某种方法可以使用MPI\u gatherv来实现此功能,或者有一种方法可以使用MPI\u
我正在CUDA中实现并行缩减
内核有一个\u syncthreads来等待所有线程从共享内存中完成2次读取,然后将总和写回共享内存
我应该使用\uuuuThreadFence\uBlock来确保对共享内存的写入在下一次迭代中对所有线程都可见,还是使用\uuSyncThreads中给出的\uSyncThreads()也意味着内存隔离功能。这包括在以下内容中:
等待线程块中的所有线程都达到此点,并且这些线程在\uu syncthreads()之前进行的所有全局和共享内存访问对块中的所有线程都可见。
在过去的两年里,我一直在写计算流体动力学代码。在我的串行代码中,我定义了一个派生类型,如下所示:
type ptr_SCL
real(8), pointer :: Q
end type ptr_SCL
type arr_nod
real(8) :: Q
type(ptr_SCL)::p0(5)
type(ptr_SCL)::pj(5,5)
end type arr_nod
type(arr_nod ),target,allocatabl
我遇到了以下情况:库中的算法使用了一些随机性,通常非常快,但有时会卡住(这对于SAT解算器来说很常见,例如)
我想做以下几点:启动任务的多个实例,并保持第一个实例成功的结果,杀死其他实例。在伪代码中:
futures = [@spawn myfunction(mydata)]
while true
i = findnext(isready, futures)
if i != nothing
result = fetch(i)
foreach(kil
我有成百上千个节点,它们都知道彼此的地址
为了有效地在它们之间传播信息,我目前认为我需要将它们变成一棵树,或者可能是多棵树
我读过,但它似乎不能处理信息丢失
如果消息有1%的失败概率,是否有一种方法可以传递到99%的节点?速度在这里很重要,因此重试和/或TCP都不存在
当消息失败时,简单的树广播将丢失整个分支。也许多棵树可以解决这个问题?有多少
我很高兴节点能够接收少量冗余消息。我需要使用UDP。少量的绝对故障是可以的,因为它们可以在稍后的时间赶上,同时退出网络
这个问题解决了吗
(我遇到过,但
其想法是用不同的新语料库集更新一个特定的预训练word2vec模型。我有以下几点
# c1, c2 are each a list of 100 files
filelist = [c1, c2, c3, c4, c5, c6, c7, c8, c9, c10]
def update_model(files):
# loading a pre-trained model
trained_model = gensim.models.Word2Vec.load("mode
我正在用C语言编写一个程序,它也使用MPI。我曾经运行过我所在研究所HPC集群中的所有代码,但由于一些事故,这些代码在过去几天里一直处于关闭状态,我不知道它们什么时候会回来。是否有支持C编程语言的在线MPI编译器?我不需要很多内核,8个内核就足够测试我的示例了。任何帮助都会很好。谢谢。就我现在所知,没有。但你可以随时按自己的意愿跑步machine@dreamcrash好的。。谢谢。投票被否决的人请指出原因,这样我就可以改进我的问题或了解问题的症结所在。感谢you@dreamcrash我已经为我昨
我正在研究逐位运算
但是,我不明白他们为什么声称代码是并行运行的
并行计算奇偶校验
unsigned int v; // word value to compute the parity of
v ^= v >> 16;
v ^= v >> 8;
v ^= v >> 4;
v &= 0xf;
return (0x6996 >> v) & 1;
我从你的电脑上复制了代码
任何帮助都将不胜感激 计算32位字奇偶校验的简单顺序方法需
最大并发度是可并发执行的最大任务数
我相信这个图的最大并发度是2。因为同一时间只能执行两个任务,其他任务必须等待另一个任务。然而,在解决方案中,给出了8。你觉得怎么样
通常,对于树型任务依赖关系图
最大并发度始终等于树中的叶数。这就是为什么它是8
假设集群中安装了octave的并行包,是否有人可以提供一个示例octave代码提交到集群?我想说的是,我是使用Matlab并行计算工具箱中的parfor,还是使用下面的代码
n = 100000000;
s = 0;
% Initialize MPI
MPI_Init;
% Create MPI communicator
comm= MPI_COMM_WORLD;
% Get size and rank
size = MPI_Comm_size(comm);
rank= MPI_Comm_ran
在我的一篇大学论文中,我发现了一个问题“FORTRAN 90中的控制和数据并行特性?”
根据我的理解,Fortran 90中的内置数组操作是数据并行的一个例子,因为Fortran能够用简单的代码对数组元素执行加法、乘法等操作,如:c=a+b
但是fortran 90中的控制并行特性是什么?这个问题值8分,所以我想只有用于数据并行性的数组操作是不行的,肯定还有别的
请帮帮我 我不认为Fortran 90在语言中内置了任何控制并行性。(“控制并行”意味着两个完全不同的代码块可以并行运行。它通常被称为
我有四个不同的实验因素
对于每个实验,我需要改变三个参数并调用fortran程序。我使用EOF构造将参数传递给fortran程序
下面是一个代码示例:
set expfac=(0.1 0.3 0.5 0.7)
set fact1=(1 3 2 8)
set fact2=(9 2 1 4)
set fact3=(5 6 1 4)
@ exp = 1
while ( $exp <= $#expfac )
foreach i ($fact1)
foreach k ($fact2)
我在Erlang中使用receive函数后遇到了一些问题,我已经在Google上搜索了一段时间,并对此进行了猛烈的攻击,但似乎无法找到答案,需要一些帮助。我有一个进程,它运行以下进程并等待消息
% Waits for messages, and puts them into the list.
% If the list has the same length as the Length variable
% which is the original provided list, then
只是为了简化场景
消费者数量==分区数量==Kafka代理数量
如果将使用者部署在代理所在的同一台机器上,如何使每个使用者仅在本地使用消息?目的是减少所有的网络开销
我认为如果每个消费者都知道他们机器上的分区id,我们就可以做到,但我不知道如何做到?还是有其他的方向来解决这个问题
谢谢。bin/kafka-topics.sh--zookeeper[zk address]--description--topic[topic_name]告诉您哪个代理托管每个分区的负责人。然后,您可以为每个使用者使用
我使用的是QtVersion5.5.1(但使用的是5.6.1GUI),我使用的是MSVC++编译器10.0,我在选项->构建和运行->常规菜单中选中了“使用jom而不是nmake”选项。我使用的是最新版本的cmake,选项->构建和运行->工具包->cmake生成器设置为“代码块-NMake Makefiles”。老实说,我不知道最后一个选项是什么,它只是默认的
我正在构建并运行QT creator IDE
如果我在Projects->Build&Run->Build Steps中的“tool
我编写了一个简单的代码来测试并行性的正确性。
要调用的子例程是
SUBROUTINE two_pt_fn()
IMPLICIT NONE
INTEGER :: i,j
!$OMP PARALLEL DO
DO i=1,10
j=i*2
WRITE(*,*)i,j
END DO
!$OMP END PARALLEL DO
END SUBROUTINE
主程序只调用上述子例程
源代码由
gfortran -fopenmp -o m.x sb_two_pt_fn.f90 main.f90
expo
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 43 页