防止python脚本使用所有ram

防止python脚本使用所有ram,python,linux,unix,xfce,mlxtend,Python,Linux,Unix,Xfce,Mlxtend,我使用jupyter笔记本来执行pyton脚本。该脚本从mlxtend框架调用关联规则函数。调用此函数时,ram从原来的500MB扩展到32GB以上。但这不是问题所在。问题是,如果我在windows 10 PC上本地执行脚本,ram将达到最大值,但一切仍在运行。在unix服务器(Xfce)上执行相同操作时,服务器会崩溃。我能做些什么来防止服务器崩溃并保证脚本继续吗 Upadate: 我基本上忽略了windows一直在交换ram的事实,唯一的区别是windows不会崩溃。我很确定,在linux上,

我使用jupyter笔记本来执行pyton脚本。该脚本从mlxtend框架调用关联规则函数。调用此函数时,ram从原来的500MB扩展到32GB以上。但这不是问题所在。问题是,如果我在windows 10 PC上本地执行脚本,ram将达到最大值,但一切仍在运行。在unix服务器(Xfce)上执行相同操作时,服务器会崩溃。我能做些什么来防止服务器崩溃并保证脚本继续吗

Upadate: 我基本上忽略了windows一直在交换ram的事实,唯一的区别是windows不会崩溃。我很确定,在linux上,通过修复交换配置可以解决这个问题。因此,基本上,问题是障碍

更新:
我做了一些错误的假设。windows PC已经在交换,交换分区的内存也用完了。所以在所有的机器上都出现了同样的问题,所有的机器都崩溃了。最后是数据预处理上的一个错误。很抱歉出现这种情况,请将此问题视为不再相关。

使用nice命令运行脚本以分配优先级。

如果您发送一个玩具示例,社区将更容易帮助您使用大型交换分区配置linux服务器。