Java 使用spark avro写入数据帧创建topLevelRecord-要使用现有模式吗

Java 使用spark avro写入数据帧创建topLevelRecord-要使用现有模式吗,java,apache-spark,record,avro,Java,Apache Spark,Record,Avro,我使用Kryo编码器将GenericRecords编码到spark数据帧中,并将数据帧写入Avro文件。一旦我尝试从配置单元中读取文件,我就会得到一个错误,说解析器找到的是toplevelrecord而不是预期的字段。这个记录不在我现有的模式中,我认为它是在我使用spark avro编写时创建的。我想知道是否/如何将其从avro文件中删除 这就是它看起来的样子: { "type":"record", "name":"topLevelRecord", "fields":[

我使用Kryo编码器将GenericRecords编码到spark数据帧中,并将数据帧写入Avro文件。一旦我尝试从配置单元中读取文件,我就会得到一个错误,说解析器找到的是toplevelrecord而不是预期的字段。这个记录不在我现有的模式中,我认为它是在我使用spark avro编写时创建的。我想知道是否/如何将其从avro文件中删除

这就是它看起来的样子:

{
    "type":"record",
    "name":"topLevelRecord",
    "fields":[
         {
            "name":"value",
            "type":["bytes","null"]
         }
    ]
} 

名称字段在Avro架构()中是必需的

如果架构中未设置值,则值topLevelRecord是默认值,但是您可以在写入数据帧时提供一个值来覆盖该值

斯卡拉: 创建参数映射并将其传递给编写器:

val name = "AvroTest"
val parameters = Map("recordName" -> name)
df.write.options(parameters).format("avro").save("/tmp/output")
参考:

Python: 将选项传递给编写器,如下所示:

df.write.format("com.databricks.spark.avro").option("recordName", "Uber").save("tmp/output")