Apache spark 运行多个配置单元/map reduce作业-终止TempletonControl作业

Apache spark 运行多个配置单元/map reduce作业-终止TempletonControl作业,apache-spark,hive,mapreduce,Apache Spark,Hive,Mapreduce,我检查了我的集群状态,发现有60个挂起的或正在进行的map/reduce作业。我在Thread中杀死了所有TempletonControl作业,所有挂起的作业都很快成功完成。我知道TempletonController是一个执行内部映射/减少作业的父进程,那么为什么不杀死它们不会使其他作业失败呢 CREATE DATABASE IF NOT EXISTS crnw_db; USE crnw_db; CREATE EXTERNAL TABLE IF NOT EXISTS crnw ( Time

我检查了我的集群状态,发现有60个挂起的或正在进行的map/reduce作业。我在Thread中杀死了所有TempletonControl作业,所有挂起的作业都很快成功完成。我知道TempletonController是一个执行内部映射/减少作业的父进程,那么为什么不杀死它们不会使其他作业失败呢

CREATE DATABASE IF NOT EXISTS crnw_db;
USE crnw_db;

CREATE EXTERNAL TABLE IF NOT EXISTS crnw (
Time TIMESTAMP,
Sensorvalue DOUBLE
)
PARTITIONED BY (year STRING, month STRING, day STRING, customer STRING, site STRING, machine STRING, sensorname STRING)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
STORED AS TEXTFILE
LOCATION '/data/storage/';
MSCK REPAIR TABLE crnw;

为什么它被标记为[apache spark]?数据管道是spark作业和Hive作业的组合。