Google cloud dataflow 云数据流作业在启动前陷入无限循环(创建成功)

Google cloud dataflow 云数据流作业在启动前陷入无限循环(创建成功),google-cloud-dataflow,Google Cloud Dataflow,我有一个云数据流作业,在运行任何应用程序逻辑之前,它处于启动阶段。我通过在processElement步骤中添加一个log output语句来测试这一点,但它没有出现在日志中,因此似乎没有被访问 我在日志中看到的是以下消息,这些消息每分钟都会出现: 错误:无法找到或加载主类com.google.cloud.dataflow.sdk.runners.worker.DataflowWorkerHarness 每几秒钟循环一次: VM是否健康?对 来自172.17.0.1:38335:EOF的http

我有一个云数据流作业,在运行任何应用程序逻辑之前,它处于启动阶段。我通过在processElement步骤中添加一个log output语句来测试这一点,但它没有出现在日志中,因此似乎没有被访问

我在日志中看到的是以下消息,这些消息每分钟都会出现:

错误:无法找到或加载主类com.google.cloud.dataflow.sdk.runners.worker.DataflowWorkerHarness

每几秒钟循环一次:

VM是否健康?对

来自172.17.0.1:38335:EOF的http:TLS握手错误

作业处于作业运行状态,将在30秒后再次检查

工作ID是2015-10-05_04_05_33-3751772463116380333


是否知道是什么原因导致了这种情况?

该错误意味着在转移到GCS并在workers上启动的jar中找不到主类DataflowWorkerHarness


在eclipse中构建Jar时,需要以与数据流兼容的方式构建Jar。此

中描述了可接受的方法。此错误表示SDK未正确暂存到GCS并下载到您的虚拟机。DataflowWorkerHarness是在workers上运行的主类。它是SDK的一部分。您使用什么命令行选项来设置类路径和暂存文件?您是否让Dataflow SDK自动确定文件?您是在、maven、ant还是IDE下运行的?我已经将代码提取为jar文件(通过使用eclipse导出选项)当我从IDE执行代码时,通过命令java-jar运行该文件不会出现这个问题。对此的回答中对此进行了详细描述。您是否正在使用兼容的方法之一?您是否尝试过如中所述使用mvn exec运行?我通过选择“将所需库复制到生成的jar旁边的子文件夹”选项来提取jar,但当我通过选择“将所需库提取到生成的jar”选项来创建jar时,发现效果良好。