Image processing 使用hadoop处理图像
我是hadoop新手,我将开发一个应用程序,使用hadoop处理多个图像,并向用户实时显示结果,同时他们正在进行计算。基本方法是分发可执行文件和一堆图像并收集结果 我可以在计算过程中以交互方式获得结果吗 对于这样的用例,除了hadoop流媒体,还有其他选择吗Image processing 使用hadoop处理图像,image-processing,hadoop,mapreduce,hdfs,hadoop-streaming,Image Processing,Hadoop,Mapreduce,Hdfs,Hadoop Streaming,我是hadoop新手,我将开发一个应用程序,使用hadoop处理多个图像,并向用户实时显示结果,同时他们正在进行计算。基本方法是分发可执行文件和一堆图像并收集结果 我可以在计算过程中以交互方式获得结果吗 对于这样的用例,除了hadoop流媒体,还有其他选择吗 如何为可执行文件提供图像?除了用stdin喂它,我找不到其他例子 对于在Hadoop上处理图像,组织计算的最佳方法是: 将图像存储在序列文件中。键-图像名称或其ID,值-图像二进制数据。这样,您将拥有一个包含所有需要处理的图像的文件。如果有
如何为可执行文件提供图像?除了用stdin喂它,我找不到其他例子 对于在Hadoop上处理图像,组织计算的最佳方法是:
但一般来说,您提供的信息并不完整,无法为您的具体案例推荐一个好的体系结构正如0x0FFF在另一个回答中所说,该问题没有提供足够的细节来推荐一个合适的体系结构。虽然这个问题很老了,但我只是添加了我在这个主题上所做的研究,以便对任何人的研究都有所帮助 Spark是一种在分布式系统上进行处理的好方法。但它没有一个强大的社区在OpenCV上工作。Storm是另一个Apache的免费开源分布式实时计算系统。Storm使可靠地处理无界数据流变得容易,实现了Hadoop对批处理所做的实时处理 StormCV是Apache Storm的扩展,专门设计用于支持分布式计算机视觉管道的开发。StormCV通过添加特定于计算机视觉(CV)的操作和数据模型,使Storm能够用于视频处理。该平台的大部分CV操作都使用OpenCV,而将该库用于其他功能相对容易
这里有几个将storm与OpenCV一起使用的示例。在他们的官方git hub页面上有一些例子。您可能想看看这个人脸检测示例,并尝试它进行人体检测-。您可以使用Hadoop Storm framework创建自定义逻辑。您可以轻松地集成某些特定计算机视觉库的任何功能,并将其分布到该框架的各个部分。除此之外,Storm还有一个很棒的扩展名DRPC server,它允许您将逻辑作为简单的RPC调用使用。在我的文章中,您可以找到一个简单的示例,说明如何使用OpenCV人脸检测通过Storm处理视频文件Hadoop streaming(又名MR)本质上是面向批处理的。您需要寻找能够实时处理数据的框架(如Storm/Samza/Spark),还可以支持处理二进制数据。