Ios XCode编译器Apple LLVM 3.1与LLVM GCC 4.2

Ios XCode编译器Apple LLVM 3.1与LLVM GCC 4.2,ios,xcode,image-processing,opencv,opticalflow,Ios,Xcode,Image Processing,Opencv,Opticalflow,我下载了这个项目来尝试一下http://www.hatzlaha.co.il/150842/Lucas-Kanade-Detection-for-the-iPhone. 它在AppStore上也有一个发布版本 当我下载源代码并编译时,它给出了编译错误。我将编译器更改为LLVM GCC,它立即编译,没有任何错误或警告 下面是我所做的: 在个人iPhone上下载了Lucas Kanade应用程序。按预期运行,即显示跟踪点和视频输出。 在公司iPad上部署了上述编译的应用程序。此处显示跟踪点,这意味着

我下载了这个项目来尝试一下http://www.hatzlaha.co.il/150842/Lucas-Kanade-Detection-for-the-iPhone. 它在AppStore上也有一个发布版本

当我下载源代码并编译时,它给出了编译错误。我将编译器更改为LLVM GCC,它立即编译,没有任何错误或警告

下面是我所做的:

在个人iPhone上下载了Lucas Kanade应用程序。按预期运行,即显示跟踪点和视频输出。 在公司iPad上部署了上述编译的应用程序。此处显示跟踪点,这意味着应用程序正在获取视频帧,但无法显示视频输出。 一般应用程序流程:

从相机上抓取一帧。 处理帧轨迹点。 输出帧,使屏幕看起来像预期的那样显示摄影机提要。 设备详细信息:

iPhone:os5.1.19b206;iphone4; iPad:os5.19b176;ipad2; 问题

视频输出问题是因为操作系统版本不同还是因为使用了GCC编译器? 如果是编译器问题,将编译错误放在这里解决是合适的,还是我需要开始一个单独的问题?
我知道这些信息可能不够,因为还有很多未知的东西,但是相信我,深入了解应用程序的细节将是一个非常详尽的问题描述。让我知道猜测解决方案还需要什么信息。我会在这里更新。

就像你已经说过的那样,信息是不够的。我只能猜测。跟踪点的项目通常使用自己的驱动程序进行摄像头访问。它不能与llvm编译器一起工作的原因可能是

如果你发现了iPhone特有的文件,只需在项目中查找即可。它们大多是dat文件。也许你会在项目中发现一些预处理器宏,比如ifdef target_iphone之类的。在这种情况下,您可以联系生产商并请求iPad的驱动程序


我没有下载并尝试该项目,但这只是一个猜测。

就像你已经说过的信息是不够的。我只能猜测。跟踪点的项目通常使用自己的驱动程序进行摄像头访问。它不能与llvm编译器一起工作的原因可能是

如果你发现了iPhone特有的文件,只需在项目中查找即可。它们大多是dat文件。也许你会在项目中发现一些预处理器宏,比如ifdef target_iphone之类的。在这种情况下,您可以联系生产商并请求iPad的驱动程序


我没有下载并尝试该项目,但这只是一个猜测。

感谢您的回复,但该项目似乎使用了标准驱动程序。我在代码中找到了这些行。AVCaptureSession*会话=[自会话];AVCaptureDeviceInput*newVideoInput=[[AVCaptureDeviceInput alloc]initWithDevice:[自后退照相机]错误:无];AVFoundation框架也包含在项目中。这些话让我相信它使用的是标准驱动程序,应该可以在iPhone和iPad上使用。正确吗?可能是opencv中的设置错误?例如屏幕分辨率?在初始化engineopenCV时,它应该设置一些参数或从设置文件中读取。我在过去1小时内遇到了一些更奇怪的事情。-我在项目中找不到任何OpenCV代码,我知道这听起来很傻。没有OpenCV框架或源文件。-我从iPad上的AppStore下载了这个应用程序,它显示了视频输出,正如预期的那样。这让我相信一些局部因素正在影响项目的编译。为了避免任何混淆,这是一个基于OpenCV的项目,因为应用程序的目标是演示Lucas Kanade光流。此外,我可以看到像cvGoodFeaturesToTrack和CVCalCopticalFlowPyrk这样的函数,它们是OpenCV函数。只是我看不到库二进制文件的位置或这些头文件的位置。是否尝试在MyVideoBuffer.mm文件initWithSession方法中更改分辨率?既然iPad2支持这种解决方案,那就试试吧。谢谢你的回复,但这个项目似乎使用的是标准驱动程序。我在代码中找到了这些行。AVCaptureSession*会话=[自会话];AVCaptureDeviceInput*newVideoInput=[[AVCaptureDeviceInput alloc]initWithDevice:[自后退照相机]错误:无];AVFoundation框架也包含在项目中。这些话让我相信它使用的是标准驱动程序,应该可以在iPhone和iPad上使用。正确吗?可能是opencv中的设置错误?例如屏幕分辨率?在初始化engineopenCV时,它应该设置一些参数或从设置文件中读取。我在过去1小时内遇到了一些更奇怪的事情。-我在项目中找不到任何OpenCV代码,我知道这听起来很傻。没有OpenCV框架或源文件。-我从iPad上的AppStore下载了这个应用程序,它显示了视频输出,正如预期的那样。Th
is使我相信一些局部因素正在影响项目可能的编译。为了避免任何混淆,它是一个基于OpenCV的项目,因为应用程序的目标是演示Lucas Kanade光流。此外,我可以看到像cvGoodFeaturesToTrack和CVCalCopticalFlowPyrk这样的函数,它们是OpenCV函数。只是我看不到库二进制文件的位置或这些头文件的位置。是否尝试在MyVideoBuffer.mm文件initWithSession方法中更改分辨率?既然iPad2支持这一解决方案,就应该试试看。