Apache spark 使用OpenCV阅读HDFS hadoop中的视频

Apache spark 使用OpenCV阅读HDFS hadoop中的视频,apache-spark,opencv,hadoop,pyspark,hdfs,Apache Spark,Opencv,Hadoop,Pyspark,Hdfs,我有保存在HDFS中的视频。 我想从视频中捕获帧 我正在使用Python、pyspark、opencv(pythonapi) 在视频捕获对象中,需要指定视频文件的路径,但opencv不支持hdfs文件系统作为路径 我可以让你融合并挂载一个目录,但我想并行化整个帧提取 有什么想法可以实现吗?您可能需要将HDFS文件获取到本地文件系统或NFS,该文件可以装载到多个实例。你试过类似Pydoop的东西吗?你可能需要下载整个文件。一旦文件在HDFS中,您就不会知道哪个帧是哪个帧,除非它存储在每个帧的二进制

我有保存在HDFS中的视频。 我想从视频中捕获帧

我正在使用Python、pyspark、opencv(pythonapi)

在视频捕获对象中,需要指定视频文件的路径,但opencv不支持hdfs文件系统作为路径

我可以让你融合并挂载一个目录,但我想并行化整个帧提取


有什么想法可以实现吗?

您可能需要将HDFS文件获取到本地文件系统或NFS,该文件可以装载到多个实例。你试过类似Pydoop的东西吗?你可能需要下载整个文件。一旦文件在HDFS中,您就不会知道哪个帧是哪个帧,除非它存储在每个帧的二进制文件中