Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 纱线:纱线-site.xml更改不生效_Hadoop_Apache Spark_Spark Streaming_Yarn_Hadoop2 - Fatal编程技术网

Hadoop 纱线:纱线-site.xml更改不生效

Hadoop 纱线:纱线-site.xml更改不生效,hadoop,apache-spark,spark-streaming,yarn,hadoop2,Hadoop,Apache Spark,Spark Streaming,Yarn,Hadoop2,我们有一个spark streaming应用程序在HDFS 2.7.3上运行,其中Thread作为资源管理器…同时运行该应用程序。。这两个文件夹 /tmp/hadoop/data/nm-local-dir/filecache /tmp/hadoop/data/nm-local-dir/filecache 正在填充,因此磁盘 因此,根据我的研究发现,在warn-site.xml中配置这两个属性将有所帮助 <property> <name>yarn.nod

我们有一个spark streaming应用程序在HDFS 2.7.3上运行,其中Thread作为资源管理器…同时运行该应用程序。。这两个文件夹

/tmp/hadoop/data/nm-local-dir/filecache

/tmp/hadoop/data/nm-local-dir/filecache
正在填充,因此磁盘

因此,根据我的研究发现,在warn-site.xml中配置这两个属性将有所帮助

<property>
        <name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
        <value>2000</value>
</property>

<property>
         <name>yarn.nodemanager.localizer.cache.target-size-mb</name>
         <value>2048</value>
</property>

纱线.nodemanager.localizer.cache.cleanup.interval-ms
2000
warn.nodemanager.localizer.cache.target-size-mb
2048
我已经在每个namenode和masternode上配置了它们..并在masternode上重新启动了Thread..但似乎仍然没有帮助…请告诉我是否缺少任何东西…在进行配置更改时…这是Thread-site.xml

<!-- Site specific YARN configuration properties -->
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hdfs-name-node</value>
</property>

<property>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>16384</value>
</property>

<property>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>6</value>
</property>

<property>
    <name>yarn.scheduler.maximum-allocation-mb</name>
    <value>16384</value>
</property>

<property>
    <name>yarn.nodemanager.local-dirs</name>
    <value>file:///tmp/hadoop/data/nm-local-dir</value>
</property>

<property>
    <name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
    <value>2000</value>
</property>

<property>
     <name>yarn.nodemanager.localizer.cache.target-size-mb</name>
     <value>2048</value>
</property>

</configuration>


纱线.节点管理器.辅助服务
mapreduce_shuffle
warn.resourcemanager.hostname
hdfs名称节点
warn.nodemanager.resource.memory-mb
16384
纱线.nodemanager.resource.cpu-vcores
6.
warn.scheduler.maximum-allocation-mb
16384
纱线.nodemanager.local-dirs
file:///tmp/hadoop/data/nm-local-dir
纱线.nodemanager.localizer.cache.cleanup.interval-ms
2000
warn.nodemanager.localizer.cache.target-size-mb
2048
更新:我尝试使用此属性,但仍无法清理,磁盘已满

<property>
        <name>yarn.nodemanager.local-dirs</name>
        <value>file:///tmp/hadoop/data/nm-local-dir,file:///tmp/hadoop/data/nm-local-dir/filecache,file:///tmp/hadoop/data/nm-local-dir/usercache</value>
   </property>

纱线.nodemanager.local-dirs
file:///tmp/hadoop/data/nm-local-dir,file:///tmp/hadoop/data/nm-local-dir/filecache,file:///tmp/hadoop/data/nm-local-dir/usercache
您说“/tmp/hadoop/data/nm local dir/filecache”文件夹已满,因此应定期清理

但是您为清理指定的参数,特别是“Thread.nodemanager.localizer.cache.cleanup.interval ms”和“Thread.nodemanager.localizer.cache.target size mb”适用于“/tmp/hadoop/data/nm local dir/filecache”,但“Thread.nodemanager.local dirs”的值file:///tmp/hadoop/data/nm-local-dir“不包括路径中的“文件缓存”。修复该值file:///tmp/hadoop/data/nm-local-dir“到”file:///tmp/hadoop/data/nm-local-dir/filecache“

您说文件夹“/tmp/hadoop/data/nm local dir/filecache”正在填充,因此应该定期清理

但是您为清理指定的参数,特别是“Thread.nodemanager.localizer.cache.cleanup.interval ms”和“Thread.nodemanager.localizer.cache.target size mb”适用于“/tmp/hadoop/data/nm local dir/filecache”,但“Thread.nodemanager.local dirs”的值file:///tmp/hadoop/data/nm-local-dir“不包括”文件缓存“在路径中。修复值”file:///tmp/hadoop/data/nm-local-dir“到”file:///tmp/hadoop/data/nm-local-dir/filecache“