Apache spark 为什么在集成Spark流媒体和Twitter API时总是将空RDD发送给Spark?
我是Spark Streaming的新手,我正在做一个小型的个人项目来研究这项技术。我想使用Twitter API获取实时推文,然后使用Spark Streaming转换流数据,以可视化流行标记 我编写了一个python脚本Apache spark 为什么在集成Spark流媒体和Twitter API时总是将空RDD发送给Spark?,apache-spark,spark-streaming,real-time-data,twitterapi-python,Apache Spark,Spark Streaming,Real Time Data,Twitterapi Python,我是Spark Streaming的新手,我正在做一个小型的个人项目来研究这项技术。我想使用Twitter API获取实时推文,然后使用Spark Streaming转换流数据,以可视化流行标记 我编写了一个python脚本twitter_api.py,从twitter api获取推文,然后通过TCP连接将数据发送给Spark。我认为这一步没有问题,因为我可以打印出获得的推文。 但是,在另一个脚本spark.py中,我在处理RDD时总是得到'ValueError'。它说我的RDD是空的 我认为p
twitter_api.py
,从twitter api获取推文,然后通过TCP连接将数据发送给Spark。我认为这一步没有问题,因为我可以打印出获得的推文。
但是,在另一个脚本spark.py
中,我在处理RDD时总是得到'ValueError'
。它说我的RDD是空的
我认为pyspark
在我的笔记本电脑上配置得很好,因为我可以运行静态示例
spark.py
脚本如下所示:
#!/usr/bin/env python3
from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.sql import SparkSession, Row
from twitter_app import TCP_IP, TCP_PORT, KEYWORD
import seaborn as sns
import matplotlib.pyplot as plt
import time
import sys
def spark(TCP_IP, TCP_PORT, KEYWORD):
sc = SparkContext(appName='TwitterStreamingApp')
sc.setLogLevel('ERROR')
ssc = StreamingContext(sc, 5)
ssc.checkpoint("checkpoint_TwitterApp")
data_stream = ssc.socketTextStream(TCP_IP, TCP_PORT)
lines = data_stream.window(20)
words = lines.flatMap(lambda x: x.split(' '))
hashtags = words.filter(lambda x: '#' in x)
def process_rdd(rdd):
try:
# initialization of SparkSession
spark = SparkSession.builder.config(conf=rdd.context.getConf()).getOrCreate()
# map each rdd to each row
rdd_row = rdd.map(lambda x: Row(tag=x))
# create the dataframe
hashtags_df = spark.createDataFrame(rdd_row)
hashtags_df.createOrReplaceTempView('tags')
hashtags_count_df = spark.sql(
'SELECT tag, count(tag) FROM tags GROUP BY tag ORDER BY COUNT(tag) DESC LIMIT 10')
pd_df = hashtags_count_df.toPandas()
plt.figure(figsize=(10, 8))
sns.barplot(x="total", y="word", data=pd_df.head(20))
plt.show()
except:
e = sys.exc_info()[0]
print("Error: %s" % e)
hashtags.foreachRDD(process_rdd)
ssc.start()
# wait for the streaming to finish
ssc.awaitTermination()
if __name__ == "__main__":
spark(TCP_IP, TCP_PORT, KEYWORD)
我真的不知道出了什么问题
- 我可以使用
twitter\u api.py
- pyspark应该配置良好,因为我可以在笔记本电脑上运行静态Spark李>