Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/sockets/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Emeditor 试图删除重复的行,但得到;没有足够的可用内存资源“;_Emeditor - Fatal编程技术网

Emeditor 试图删除重复的行,但得到;没有足够的可用内存资源“;

Emeditor 试图删除重复的行,但得到;没有足够的可用内存资源“;,emeditor,Emeditor,我正在尝试使用emeditor删除13gb文件中的重复项。1列,仅换行文本 但是,在emeditor中执行此操作的两个工具(在edit->advanced下)都会出现相同的错误“可用内存资源不足” 还有别的办法吗?还有别的选择吗?谢谢此提示消息表示您的计算机上的可用虚拟内存非常低。您的计算机上有多少物理内存?如果可能的话,我建议您增加计算机中的物理内存大小。如果不可能,请尝试: 清理计算机,确保硬盘中有足够的空间存放临时文件。可以在“自定义”对话框的“高级”页面中设置临时文件夹 关闭所有应用程序

我正在尝试使用emeditor删除13gb文件中的重复项。1列,仅换行文本

但是,在emeditor中执行此操作的两个工具(在edit->advanced下)都会出现相同的错误“可用内存资源不足”


还有别的办法吗?还有别的选择吗?谢谢

此提示消息表示您的计算机上的可用虚拟内存非常低。您的计算机上有多少物理内存?如果可能的话,我建议您增加计算机中的物理内存大小。如果不可能,请尝试:

  • 清理计算机,确保硬盘中有足够的空间存放临时文件。可以在“自定义”对话框的“高级”页面中设置临时文件夹

  • 关闭所有应用程序,禁用Cortana(如果未使用),禁用任何启动应用程序(如果未使用),重新启动Windows,并仅运行EmEditor

  • 转到工具菜单上的自定义,选择高级,从线程数中选择1

  • 如果提示消息仍然存在,您可能需要检查Windows虚拟内存设置。要检查虚拟内存设置,请在Windows设置搜索框中搜索性能,选择调整Windows的外观和性能,单击高级选项卡,单击虚拟内存框中的更改按钮 如果未设置所有驱动器的自动管理分页文件大小,请先尝试设置此自动选项,重新启动Windows,然后重试

    如果这不起作用或已设置自动选项,请清除自动选项,尝试将初始大小和最大大小的自定义大小设置为
    40960
    MB,然后重新启动Windows并重试。我希望这能奏效


    如果不使用语言
    我会使用记事本++和一个简单的

    查找
    (?m)^(?>(.*\S.*)(?=(?:.*\R)*?\1$)

    不替换


    从上到下删除DUP,这是最快的正则表达式方法

    获取数组中的行,排序,筛选,写出新行。文件中有多少行,或者一行的平均长度是多少?561585927行。我猜的平均长度大概是20个字符。嗨,Yutaka,我的电脑上有16GB的物理内存。我的硬盘上也有很多可用空间。这个建议也不起作用。ThanksI使用虚拟内存设置更新了我的答案。请试试这个。嗨,谢谢你,但它不起作用。我在emeditor中运行了它,但它在我的文档中找不到任何匹配项?我知道肯定有重复的。感谢PCRE、Perl、Boost正则表达式。Thinking应该使用NP++,不管编辑器是什么,它都有一些自定义的无名正则表达式引擎。它可以在其他引擎上工作,是吗?是的,这是一种特殊的正则表达式设计,可以一次查看和跳过大量行中的数据。另一种方法是将所有行读入数组并运行冒泡排序。也需要几个小时。最好将整个文件分为字母开头字母和单个标点开头的文件。使用Perl打开26个新文件,打开30Gig文件,一次读取一行,写入特定的alpha文件。完成后,它是由alpha排序的,只需要对每个文件进行排序,删除DUP,然后重新连接在一起。这样会失去秩序,但不会再有重复。我所说的regex方法保留了顺序,但需要对整个数据起作用。祝你好运