Apache spark 使用ApacheSpark的Django
我有一个针对MySQL数据库运行的Django应用程序。我想在应用程序中引入大数据分析,将同一个应用程序连接到Spark,Spark将数据存储为配置单元表。我可以通过直线运行查询和访问数据。我想从Django应用程序运行类似的查询,并在应用程序中显示结果集 我的环境是: Spark 1.5.2Apache spark 使用ApacheSpark的Django,apache-spark,pyspark,pyspark-sql,Apache Spark,Pyspark,Pyspark Sql,我有一个针对MySQL数据库运行的Django应用程序。我想在应用程序中引入大数据分析,将同一个应用程序连接到Spark,Spark将数据存储为配置单元表。我可以通过直线运行查询和访问数据。我想从Django应用程序运行类似的查询,并在应用程序中显示结果集 我的环境是: Spark 1.5.2 储蓄服务器2 MySQL上的Hive元存储 任何帮助都将不胜感激 谢谢你的问题具体是什么还不太清楚。要使用pyspark API,您必须将pyspark和py4j放在PYTHONPATH上,然后阅读。另请
储蓄服务器2
MySQL上的Hive元存储 任何帮助都将不胜感激
谢谢你的问题具体是什么还不太清楚。要使用pyspark API,您必须将pyspark和py4j放在
PYTHONPATH上,然后阅读。另请参见谢谢您的帮助。您的问题具体是什么还不清楚。要使用pyspark API,您必须将pyspark和py4j放在PYTHONPATH上,然后阅读。另请参阅,谢谢您的帮助。