Modelica Dymola 2018 Linux上的性能(xubuntu)

Modelica Dymola 2018 Linux上的性能(xubuntu),modelica,dymola,Modelica,Dymola,我遇到的问题是,在Linux上运行模拟(相同的基于IBPSA/AixLib的模型)时,与Windows 8机器相比,我的性能显著下降(模拟时间大约是原来的两倍)。下面是两台机器的具体规格。在这两种情况下,我使用相同设置的Cvode解算器。编译是用VC14.0(Win)或GCC(Xubuntu)完成的 有人熟悉这个问题吗?或者有人能帮上忙吗?原因可能是什么 赢8: 英特尔至强@2.9GHz(6个逻辑处理器) 32 GB内存 64位 Xubuntu 16.04虚拟机: 英特尔至强@3.7GHz(24

我遇到的问题是,在Linux上运行模拟(相同的基于IBPSA/AixLib的模型)时,与Windows 8机器相比,我的性能显著下降(模拟时间大约是原来的两倍)。下面是两台机器的具体规格。在这两种情况下,我使用相同设置的Cvode解算器。编译是用VC14.0(Win)或GCC(Xubuntu)完成的

有人熟悉这个问题吗?或者有人能帮上忙吗?原因可能是什么

赢8: 英特尔至强@2.9GHz(6个逻辑处理器) 32 GB内存 64位

Xubuntu 16.04虚拟机: 英特尔至强@3.7GHz(24个逻辑处理器) 64 GB内存 64位


谢谢 一般来说,gcc倾向于生成比visualstudio慢的代码。为了打开优化,可以尝试添加以下行:

CFLAGS=$CFLAGS“-02”

在insert/dsbuild.sh的顶部


默认情况下不启用它的原因是为了避免冗长的编译和臃肿的二进制文件。对于工业规模的机型,这些都是实际问题。

您可能没有在Linux上使用MinGW。Xubuntu是虚拟机吗?Windows是否使用SSD?两个模拟是否生成相同数量的事件?同样的翻译统计?你在使用某种并行化吗?稀疏解算器?最新的Dymola版本的情况也一样吗?是的,你是对的,它是gcc。Xubuntu是一个虚拟机。我测试了你的一些建议,实际上似乎写结果是SSD发挥作用的主要瓶颈。你可以尝试过滤结果,只保存相关变量,从而减少文件大小。通常我只保存输出变量。但在这种情况下,它对模拟速度的影响很小。这与设置Advanced.Define.GlobalOptimizations=2相同吗?因为我已经尝试过了,没有任何影响。Advanced.Define.GlobalOptimizations仅适用于Visual Studio;不幸的是,gcc没有相应的设置。设置CFLAG显著缩小了差距。结果是速度提高约20%。现在,性能至少在不带SSD的2.9 GHz Win工作站的范围内。谢谢你!