Python 将json响应加载到DataRicks中的spark数据帧时获取_corrupt_记录

Python 将json响应加载到DataRicks中的spark数据帧时获取_corrupt_记录,python,json,apache-spark,pyspark,databricks,Python,Json,Apache Spark,Pyspark,Databricks,我一直在尝试从中获取数据并将其加载到spark dataframe。 一切都很好,直到我达到角色1173,我得到了腐败记录错误 (AnalysisException:自Spark 2.3以来,来自原始JSON/CSV的查询 当引用的列仅包含 内部损坏记录(列) 我认为它与别名列中的转义字符有关,尽管我不知道如何解决它 下面是我的部分代码。这应该足以导致错误。也许有人已经解决了这个问题 import json import requests def send_request(api_object

我一直在尝试从中获取数据并将其加载到spark dataframe。 一切都很好,直到我达到角色1173,我得到了腐败记录错误

(AnalysisException:自Spark 2.3以来,来自原始JSON/CSV的查询 当引用的列仅包含 内部损坏记录(列)

我认为它与别名列中的转义字符有关,尽管我不知道如何解决它

下面是我的部分代码。这应该足以导致错误。也许有人已经解决了这个问题

import json
import requests

def send_request(api_object):
  
  page = 1173
  url = 'https://anapioficeandfire.com/api/'
  
  req = url + api_object + '?page=' + str(page)+ '&pageSize=1'
  response = requests.get(req)
  results = response.json()
  
  return results 

dbutils.fs.put("books.json",  str(send_request('characters')), True) 
df = spark.read.json("books.json", multiLine=True)
#df = spark.read.json(sc.parallelize([send_request('characters')]))
display(df)

send_request('characters')