Python 通过pyspark.sql.dataframe将XML数据转换为数据框架

Python 通过pyspark.sql.dataframe将XML数据转换为数据框架,python,pandas,dataframe,pyspark,azure-databricks,Python,Pandas,Dataframe,Pyspark,Azure Databricks,我的背景:长期使用SAS和R的用户,试图弄明白如何使用Python和Spark在Azure Databricks中做一些基本的事情。很抱歉,下面没有可复制的示例;我不知道如何创建这样一个 我试图从一个复杂的XML文件中读取数据。我已经到了这一步,在这里我有一个pyspark.sql.dataframe(称为xml1),它的安排如下: 响应:数组 元素:数组 元素:struct 值:字符串 VARNAME:string处理结构数组explode是您的答案。下面是关于如何使用explode的链接堆

我的背景:长期使用SAS和R的用户,试图弄明白如何使用Python和Spark在Azure Databricks中做一些基本的事情。很抱歉,下面没有可复制的示例;我不知道如何创建这样一个

我试图从一个复杂的XML文件中读取数据。我已经到了这一步,在这里我有一个pyspark.sql.dataframe(称为xml1),它的安排如下:

响应:数组
元素:数组
元素:struct
值:字符串

VARNAME:string
处理结构数组explode是您的答案。下面是关于如何使用explode的链接

堆栈溢出时不鼓励使用链接,因为如果链接因任何原因消失,则这些答案将变得无用。你应该在回答中包含与问题相关的最重要部分。