Hadoop 令牌(用于<;用户>;的HDFS_委派令牌210)可以';无法在缓存中找到

Hadoop 令牌(用于<;用户>;的HDFS_委派令牌210)可以';无法在缓存中找到,hadoop,apache-spark,kerberos,yarn,Hadoop,Apache Spark,Kerberos,Yarn,我正在使用Kerberized hadoop集群(hadoop 2.6.0-cdh5.4.4)和Spark 1.3以及纱线。我花了几个小时试图找出scala 2.10应用程序产生此错误的原因: 16/04/16 10:32:33 WARN ipc.Client: Exception encountered while connecting to the server : org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.securit

我正在使用Kerberized hadoop集群(hadoop 2.6.0-cdh5.4.4)和Spark 1.3以及纱线。我花了几个小时试图找出scala 2.10应用程序产生此错误的原因:

16/04/16 10:32:33 WARN ipc.Client: Exception encountered while connecting to the server : org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.token.SecretManager$InvalidToken): token (HDFS_DELEGATION_TOKEN token 210 for XXXXXX) can't be found in cache
16/04/16 10:32:33 WARN hdfs.LeaseRenewer: Failed to renew lease for [DFSClient_NONMAPREDUCE_462399399_14] for 30 seconds.  Will retry shortly ...
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.token.SecretManager$InvalidToken): token (HDFS_DELEGATION_TOKEN token 210 for XXXXXX) can't be found in cache
        at org.apache.hadoop.ipc.Client.call(Client.java:1410)
        at org.apache.hadoop.ipc.Client.call(Client.java:1363)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206) 

我使用pyspark复制了代码,得到了同样的结果。

网络中的大多数实体都与配置问题有关,而这些问题对我来说并不适用

最后我发现这是由一个编程决策引起的。代码正在创建和停止几个spark上下文,特别是不同时创建和停止。在删除此多次创建并使用单一spark上下文后,错误消失,应用程序顺利完成

希望这对某人有所帮助