Automation 如何在kafka-hdfs集成中自动化版本控制?

Automation 如何在kafka-hdfs集成中自动化版本控制?,automation,apache-kafka,hdfs,build-automation,Automation,Apache Kafka,Hdfs,Build Automation,我正在将ApacheKafka与hdfs集成,我需要自动将所有使用的版本更新为最新版本。我该怎么做?有很多方法可以做到这一点,但总的来说,总是自动使用最新版本是一个非常糟糕的主意。当您将一个新版本发布到prod,而构建自动化抓住了一个您没有测试过的新版本,这恰好破坏了您在生产中的系统时,会发生什么?或者有一个发布的版本实际上有一个bug 大多数构建系统(maven、gradle等)在默认情况下将依赖项固定到特定版本是有原因的 有关这是一个坏主意的更多详细信息,请参见以下其他问题(以及最重要的答案

我正在将ApacheKafka与hdfs集成,我需要自动将所有使用的版本更新为最新版本。我该怎么做?

有很多方法可以做到这一点,但总的来说,总是自动使用最新版本是一个非常糟糕的主意。当您将一个新版本发布到prod,而构建自动化抓住了一个您没有测试过的新版本,这恰好破坏了您在生产中的系统时,会发生什么?或者有一个发布的版本实际上有一个bug

大多数构建系统(maven、gradle等)在默认情况下将依赖项固定到特定版本是有原因的

有关这是一个坏主意的更多详细信息,请参见以下其他问题(以及最重要的答案):


如果我们正在使用我们的库中提供的最新版本或舵图或类似的东西进行自动化,该怎么办?测试版本将被更新,我们希望自动执行版本控制。Kafka和Hadoop互不依赖,但单独升级两者都会对现有数据和与之交互的其他系统产生重大影响。一般来说,较新的Kafka客户端可以很好地与旧服务器配合使用。Hadoop的向后兼容性较低@ArvindIt,例如,你最好使用Hortonworks或Cloudera,这两家公司足够大,拥有比你更多的测试套件