Apache spark 为什么在集成Spark流媒体和Twitter API时总是将空RDD发送给Spark?

Apache spark 为什么在集成Spark流媒体和Twitter API时总是将空RDD发送给Spark?,apache-spark,spark-streaming,real-time-data,twitterapi-python,Apache Spark,Spark Streaming,Real Time Data,Twitterapi Python,我是Spark Streaming的新手,我正在做一个小型的个人项目来研究这项技术。我想使用Twitter API获取实时推文,然后使用Spark Streaming转换流数据,以可视化流行标记 我编写了一个python脚本twitter_api.py,从twitter api获取推文,然后通过TCP连接将数据发送给Spark。我认为这一步没有问题,因为我可以打印出获得的推文。 但是,在另一个脚本spark.py中,我在处理RDD时总是得到'ValueError'。它说我的RDD是空的 我认为p

我是Spark Streaming的新手,我正在做一个小型的个人项目来研究这项技术。我想使用Twitter API获取实时推文,然后使用Spark Streaming转换流数据,以可视化流行标记

我编写了一个python脚本
twitter_api.py
,从twitter api获取推文,然后通过TCP连接将数据发送给Spark。我认为这一步没有问题,因为我可以打印出获得的推文。 但是,在另一个脚本
spark.py
中,我在处理RDD时总是得到
'ValueError'
。它说我的RDD是空的

我认为
pyspark
在我的笔记本电脑上配置得很好,因为我可以运行静态示例

spark.py
脚本如下所示:

#!/usr/bin/env python3
from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.sql import SparkSession, Row
from twitter_app import TCP_IP, TCP_PORT, KEYWORD
import seaborn as sns
import matplotlib.pyplot as plt
import time
import sys


def spark(TCP_IP, TCP_PORT, KEYWORD):
   sc = SparkContext(appName='TwitterStreamingApp')
   sc.setLogLevel('ERROR')

   ssc = StreamingContext(sc, 5)


   ssc.checkpoint("checkpoint_TwitterApp")

   
   data_stream = ssc.socketTextStream(TCP_IP, TCP_PORT)
   lines = data_stream.window(20)

   words = lines.flatMap(lambda x: x.split(' '))
   hashtags = words.filter(lambda x: '#' in x)  

   def process_rdd(rdd):
       try:
           # initialization of SparkSession
           spark = SparkSession.builder.config(conf=rdd.context.getConf()).getOrCreate()

           # map each rdd to each row
           rdd_row = rdd.map(lambda x: Row(tag=x))

           # create the dataframe
           hashtags_df = spark.createDataFrame(rdd_row)

           hashtags_df.createOrReplaceTempView('tags')
           hashtags_count_df = spark.sql(
            'SELECT tag, count(tag) FROM tags GROUP BY tag ORDER BY COUNT(tag) DESC LIMIT 10')
          

           pd_df = hashtags_count_df.toPandas()

           plt.figure(figsize=(10, 8))
           sns.barplot(x="total", y="word", data=pd_df.head(20))
           plt.show()

       except:
           e = sys.exc_info()[0]
           print("Error: %s" % e)

   hashtags.foreachRDD(process_rdd)
   ssc.start()

   # wait for the streaming to finish
   ssc.awaitTermination()


if __name__ == "__main__":
    spark(TCP_IP, TCP_PORT, KEYWORD)

我真的不知道出了什么问题

  • 我可以使用
    twitter\u api.py
  • pyspark应该配置良好,因为我可以在笔记本电脑上运行静态Spark
p、 我正在使用MacBook Pro 2018和Catalina 10.15.5、2.3 GHz四核、Intel Core i5