正在将xml或json…多行读入单个字符串
如果我的文件在sc.textFIle(json或xml)中被分成多行,我想在pyspark.lf中读取json或xml文件 输入 它是多行的 输出正在将xml或json…多行读入单个字符串,json,apache-spark,apache-spark-sql,Json,Apache Spark,Apache Spark Sql,如果我的文件在sc.textFIle(json或xml)中被分成多行,我想在pyspark.lf中读取json或xml文件 输入 它是多行的 输出 {"employees:[{"firstName:"John",......]} 每个人都在一串或一行中思考。。 在Pypark 请帮助我,我是spark的新手,如果您有权访问字典文件(我不熟悉PySpark,但表面上看,您似乎很熟悉),您可以使用标准JSON库“漂亮地打印”它: 谢谢Alexander,在pyspark中,您知道它是如何工作的吗?
{"employees:[{"firstName:"John",......]}
每个人都在一串或一行中思考。。
在Pypark
请帮助我,我是spark的新手,如果您有权访问字典文件(我不熟悉PySpark,但表面上看,您似乎很熟悉),您可以使用标准JSON库“漂亮地打印”它:
谢谢Alexander,在pyspark中,您知道它是如何工作的吗?
{"employees:[{"firstName:"John",......]}
>>> import json
>>> my_dict = {'4': 5, '6': 7}
>>> print json.dumps(my_dict, sort_keys=True,
... indent=4, separators=(',', ': '))
{
"4": 5,
"6": 7
}