Apache spark Spark JDBC写入Teradata会导致阻塞队列
我正在尝试使用Apache spark Spark JDBC写入Teradata会导致阻塞队列,apache-spark,spark-streaming,teradata,spark-structured-streaming,Apache Spark,Spark Streaming,Teradata,Spark Structured Streaming,我正在尝试使用spark.jdbc.write将流式数据写入Teradata表,此操作正在启用Teradata表上的多个线程,从而导致阻塞查询的情况 有没有办法处理多个线程并使其成为单线程?将写操作设置为单线程将失去使用Spark的意义,并最终导致应用程序效率低下 但是,您可以减少写入线程的数量,以提高写入操作的效率 有两个步骤: 将RDD/DataFrame重新分区,其数值低于处理阶段,这样就可以减少写入Teradata的内核的数量(如果您真的愿意,您甚至可以为每个执行器指定一个写入线程) 建
spark.jdbc.write
将流式数据写入Teradata表,此操作正在启用Teradata表上的多个线程,从而导致阻塞查询的情况
有没有办法处理多个线程并使其成为单线程?将写操作设置为单线程将失去使用Spark的意义,并最终导致应用程序效率低下 但是,您可以减少写入线程的数量,以提高写入操作的效率 有两个步骤:
内核的数量(如果您真的愿意,您甚至可以为每个执行器指定一个写入线程)
我不熟悉Teradata,有没有什么方法可以在TD中创建接受并行插入的表。因为Spice正在启动多个线程。@ USER 5663155考虑在TelAdvices文档中检查这一点,或者创建一个新的问题。