Linux 在spark中将IP地址设置为spark.driver.host而不是主机名?

Linux 在spark中将IP地址设置为spark.driver.host而不是主机名?,linux,networking,apache-spark,Linux,Networking,Apache Spark,我在声明spark.driver.host设置时遇到问题。 假设我有一个主机名和绑定地址192.168.1.1(它的linux和windows根本没有这个问题) 如果我设置一个属性spark.driver.hostname=192.168.1.1工作人员将响应主机名,这非常糟糕,因为他们没有具有此主机名的DNS 正如上面所说: 如果SPARK_LOCAL_IP设置为IP地址,则将解析为主机名 这里有一个问题:如何不将此IP地址设置为主机名?主机名-f给出您的FQDN 将此添加到/etc/host

我在声明spark.driver.host设置时遇到问题。 假设我有一个主机名和绑定地址
192.168.1.1
(它的linux和windows根本没有这个问题)

如果我设置一个属性
spark.driver.hostname=192.168.1.1
工作人员将响应主机名,这非常糟糕,因为他们没有具有此主机名的DNS

正如上面所说:

如果SPARK_LOCAL_IP设置为IP地址,则将解析为主机名


这里有一个问题:如何将此IP地址设置为主机名?

主机名-f给出您的FQDN 将此添加到/etc/hosts文件

spark节点上的[您的ip地址][您的主机名]


或者将主机名添加到spark节点使用的dns中

hostname-f提供FQDN 将此添加到/etc/hosts文件

spark节点上的[您的ip地址][您的主机名]


或者将主机名添加到spark节点使用的dns中

hostname-f提供FQDN 将此添加到/etc/hosts文件

spark节点上的[您的ip地址][您的主机名]


或者将主机名添加到spark节点使用的dns中

hostname-f提供FQDN 将此添加到/etc/hosts文件

spark节点上的[您的ip地址][您的主机名]


或者将主机名添加到spark节点使用的dns中

您可以在spark环境中设置spark\u LOCAL\u hostname=ip地址来解决此问题。

您可以在spark环境中设置spark\u LOCAL\u hostname=ip地址来解决此问题。

您可以在spark环境中设置spark\u LOCAL\u hostname=ip地址来解决此问题问题。

您可以在SPARK环境中设置SPARK\u LOCAL\u HOSTNAME=ip地址来解决问题。

这不是一个好的解决方案,因为我必须假设我的驱动程序可以更改它的ip,甚至更糟-我可以使用不同的机器来解决它。Windows仍然没有这个问题:-(这不是一个好的解决方案,因为我必须假设我的驱动程序可以更改它的ip,甚至更糟-我可以使用不同的计算机来更改它。Windows仍然没有这个问题:-(这不是一个好的解决方案,因为我必须假设我的驱动程序可以更改它的ip,甚至更糟-我可以使用不同的机器来更改它。Windows仍然没有这个问题:-(这不是一个好的解决方案,因为我必须假设我的驱动程序可以更改它的ip,甚至更糟-我可以使用不同的机器来更改它。Windows仍然没有这个问题:-(