Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 使用ApacheSpark的Django_Apache Spark_Pyspark_Pyspark Sql - Fatal编程技术网

Apache spark 使用ApacheSpark的Django

Apache spark 使用ApacheSpark的Django,apache-spark,pyspark,pyspark-sql,Apache Spark,Pyspark,Pyspark Sql,我有一个针对MySQL数据库运行的Django应用程序。我想在应用程序中引入大数据分析,将同一个应用程序连接到Spark,Spark将数据存储为配置单元表。我可以通过直线运行查询和访问数据。我想从Django应用程序运行类似的查询,并在应用程序中显示结果集 我的环境是: Spark 1.5.2 储蓄服务器2 MySQL上的Hive元存储 任何帮助都将不胜感激 谢谢你的问题具体是什么还不太清楚。要使用pyspark API,您必须将pyspark和py4j放在PYTHONPATH上,然后阅读。另请

我有一个针对MySQL数据库运行的Django应用程序。我想在应用程序中引入大数据分析,将同一个应用程序连接到Spark,Spark将数据存储为配置单元表。我可以通过直线运行查询和访问数据。我想从Django应用程序运行类似的查询,并在应用程序中显示结果集

我的环境是:

Spark 1.5.2
储蓄服务器2
MySQL上的Hive元存储

任何帮助都将不胜感激


谢谢

你的问题具体是什么还不太清楚。要使用pyspark API,您必须将pyspark和py4j放在
PYTHONPATH上,然后阅读。另请参见谢谢您的帮助。您的问题具体是什么还不清楚。要使用pyspark API,您必须将pyspark和py4j放在
PYTHONPATH上,然后阅读。另请参阅,谢谢您的帮助。