Hive 无法打开要连接的客户端传输配置单元

Hive 无法打开要连接的客户端传输配置单元,hive,airflow,Hive,Airflow,我曾尝试将hiveconfs的参数更改为None,但仍然遇到问题 我使用的配置: 气流连接基于基于hive zookeeper的jdbc连接进行配置,并使用“hive客户端包装器”作为连接类型。 正在尝试传递一些额外的参数以进行连接 附加内容:{“配置单元参数”:“,”使用直线“:”真“,”验证“:”无”} 样本dag代码: Error: Could not open client transport with JDBC Uri: jdbc:hive2://XXXX:10000/default;

我曾尝试将hiveconfs的参数更改为None,但仍然遇到问题

我使用的配置:

气流连接基于基于hive zookeeper的jdbc连接进行配置,并使用“hive客户端包装器”作为连接类型。 正在尝试传递一些额外的参数以进行连接 附加内容:{“配置单元参数”:“,”使用直线“:”真“,”验证“:”无”}

样本dag代码

Error: Could not open client transport with JDBC Uri: jdbc:hive2://XXXX:10000/default;auth=none: Failed to open new session: java.lang.IllegalArgumentException: Cannot modify airflow.ctx.task_id at runtime. It is not in list of params that are allowed to be modified at runtime (state=08S01,code=0)
Beeline version 2.3.6 by Apache Hive

这看起来像是同一个问题:不,在这里,我使用了不同的连接类型,也有不同的问题,我也尝试过这个解决方案。但仍在挣扎中
import airflow
from airflow import DAG
from airflow.operators.hive_operator import HiveOperator
from airflow.utils.dates import days_ago

dag_conf = DAG(dag_id = "airflow_hiveoperator",schedule_interval = None,start_date = airflow.utils.dates.days_ago(1))


HiveOperator = HiveOperator(
    hql='hql/query1.hql',
    task_id = 'airflow_hive',
    schema='default',
    hiveconf_jinja_translate=False,
    dag = dag_conf,
    conn_id = 'hive_cli_default',
    hiveconfs=None
)

if __name__ == "__main__":
    dag_conf.cli()