Scala spark csv通过DataRicks支持的布尔值
我无法使用DataRicks为数据帧内的布尔列加载带有“t”和“f”值的csv 已经有一个与此相关的开放Scala spark csv通过DataRicks支持的布尔值,scala,csv,apache-spark,spark-dataframe,Scala,Csv,Apache Spark,Spark Dataframe,我无法使用DataRicks为数据帧内的布尔列加载带有“t”和“f”值的csv 已经有一个与此相关的开放 提前感谢。如果您将该列作为字符串读取,然后使用一些sql.functions替换其值为true或false,会怎么样?我们直接从红移表加载架构,并使用该架构加载csv。这需要对多个表执行。好吧,我的建议是,在他们修复错误之前。首先替换StringType的所有列BooleanType。谢谢。让我通过更改数据帧内的数据类型来尝试您的解决方案。
提前感谢。如果您将该列作为字符串读取,然后使用一些
sql.functions
替换其值为true或false,会怎么样?我们直接从红移表加载架构,并使用该架构加载csv。这需要对多个表执行。好吧,我的建议是,在他们修复错误之前。首先替换StringType
的所有列BooleanType
。谢谢。让我通过更改数据帧内的数据类型来尝试您的解决方案。