通过livy将存储在github中的文件提交给spark
我正试图通过livy做一份有火花的工作。我正在创建一个livy批处理会话,我需要file参数是一个githuburi(类似于这样的-)(如果repo是私有的,则将包括令牌)通过livy将存储在github中的文件提交给spark,github,pyspark,livy,Github,Pyspark,Livy,我正试图通过livy做一份有火花的工作。我正在创建一个livy批处理会话,我需要file参数是一个githuburi(类似于这样的-)(如果repo是私有的,则将包括令牌) LivyBatch.create(url=, 文件= args=, spark_conf=) 当我尝试这样做时,我收到以下错误消息:警告NativeCodeLoader:无法为您的平台加载本机hadoop库。。。在线程“main”org.apache.spark.SparkException中使用适用的内置java类异常:
LivyBatch.create(url=,
文件=
args=,
spark_conf=)
当我尝试这样做时,我收到以下错误消息:警告NativeCodeLoader:无法为您的平台加载本机hadoop库。。。在线程“main”org.apache.spark.SparkException中使用适用的内置java类异常:无法在JAR中获取主类,错误为“null”。请使用--class
指定一个
当我提供file
参数作为aws s3
路径时,我能够成功运行相同的代码
LivyBatch.create(url = <livy_server_url>,
file = <>
args = <args>,
spark_conf = <pyspark_config>)