Python PySpark是否有与pandas';定向';使用spark.read.json()时的选项?

Python PySpark是否有与pandas';定向';使用spark.read.json()时的选项?,python,apache-spark,databricks,Python,Apache Spark,Databricks,我有一个JSON文件,格式如下 {column -> {index -> value}} 我可以用以下方法在熊猫身上做到这一点 df = pandas.read_json(path, orient='columns') 当使用df=spark.read.json(path)时,是否有一个等价物?目前在pyspark中加载数据,但最终超时,我相信这是由于将JSON文件读取为'split'类型

我有一个JSON文件,格式如下

{column -> {index -> value}}
我可以用以下方法在熊猫身上做到这一点

df = pandas.read_json(path, orient='columns')
当使用
df=spark.read.json(path)
时,是否有一个等价物?目前在pyspark中加载数据,但最终超时,我相信这是由于将JSON文件读取为'split'类型