Apache spark 验证RPC的Spark SASL加密

Apache spark 验证RPC的Spark SASL加密,apache-spark,Apache Spark,我将spark.authenticate.enablesalencryption设置为true,并希望验证RPC是否加密 我想检查该功能是否已启用。我会在日志中找到这样的消息吗? 如果我想确保数据包是加密的,我会做tcpdump并检查数据包以确认信息不是明文的吗? 我是Spark的新手,如果这些问题很简单,我很抱歉。作为第一步,如果在Spark submit命令中添加-verbose标志,Spark将打印配置设置,您将看到: (spark.authenticate.enableSaslEncry

我将spark.authenticate.enablesalencryption设置为true,并希望验证RPC是否加密

我想检查该功能是否已启用。我会在日志中找到这样的消息吗? 如果我想确保数据包是加密的,我会做tcpdump并检查数据包以确认信息不是明文的吗?
我是Spark的新手,如果这些问题很简单,我很抱歉。

作为第一步,如果在Spark submit命令中添加-verbose标志,Spark将打印配置设置,您将看到:

(spark.authenticate.enableSaslEncryption, true)
接下来,您可以通过log4j.properties文件启用调试日志记录-请参阅并在日志中搜索提及Sasl的条目

启用SASL加密后,您将看到来自以下类的日志记录:

SASLRPCLIENT TSaslTransport SparkSaslServer SASLRPCHANDER 例如:

SparkSaslServer: SASL Authorization complete, authorized set to true

SaslRpcHandler: SASL authentication successful for channel TransportClient{...}

能否请您澄清一下您需要的验证程度?例如,是否只需要一条日志消息来确认功能似乎已打开?还是要检查RPC网络流量以确认信息在明文中不可见?我想要一条日志消息以确认该功能似乎已打开。