Scala Apache Spark:运行Kafka producer时获得InstanceAlreadyExistsException
我在scala中有一个小应用程序,它创建了kafka producer,并使用ApacheSpark运行。 当我运行命令时Scala Apache Spark:运行Kafka producer时获得InstanceAlreadyExistsException,scala,exception,apache-spark,apache-kafka,kafka-producer-api,Scala,Exception,Apache Spark,Apache Kafka,Kafka Producer Api,我在scala中有一个小应用程序,它创建了kafka producer,并使用ApacheSpark运行。 当我运行命令时 spark-submit --master local[2] --deploy-mode client <into the jar file> <app Name> <kafka broker> <kafka in queue> <kafka out queue> <interval> spark提交
spark-submit --master local[2] --deploy-mode client <into the jar file> <app Name> <kafka broker> <kafka in queue> <kafka out queue> <interval>
spark提交--主本地[2]--部署模式客户端
我收到这样的警告:
警告AppInfoParser:注册AppInfo mbean时出错
javax.management.instancealreadyexistException:kafka.producer:type=app info,id=
代码不相关,因为当scala创建KafkaProducer:val producer=new KafkaProducerObject,Object时,我遇到了这个异常
有人能解决这个问题吗?
谢谢大家! 创建Kafka生产者时,它会尝试使用client.id作为唯一标识符注册MBean 有两种可能导致出现
InstanceAlreadyExistsException
警告:
close()
。调用close()
将注销MBean嘿,我能知道这会造成什么影响吗?我还是制作人,bean将被创建,但注册失败?是吗?或者生产者bean将被销毁,因为它没有注册?