Apache spark Spark提交以传递unicode字符

Apache spark Spark提交以传递unicode字符,apache-spark,unicode,Apache Spark,Unicode,如何通过spark提交配置传递unicode字符? 通过spark submit将unicode字符\u001D作为csv delimeter传递时,会抛出以下错误: 分隔符不支持的特殊字符:\u001D。null() 下面的代码在spark shell中工作 val df = spark.read.option("sep","\u001D").option("header", "false").csv("PATH") 任何通过spark submit传递unicode字符的选项您是否尝试过将

如何通过spark提交配置传递unicode字符?
通过spark submit将unicode字符
\u001D
作为csv delimeter传递时,会抛出以下错误:

分隔符不支持的特殊字符:\u001D。null()

下面的代码在spark shell中工作

val df = spark.read.option("sep","\u001D").option("header", "false").csv("PATH")

任何通过spark submit传递unicode字符的选项

您是否尝试过将字符而不是代码放入?如果您在windows中,您可以按住Alt键并按29键键入。例如:↔'.你试过用字符代替代码吗?如果您在windows中,您可以按住Alt键并按29键键入。例如:↔'.
val df = spark.read.option("sep","\u001D").option("header", "false").csv("PATH")