Processing 处理中使用Kinect v1进行运动捕捉
你好,我想知道是否有人能帮我做点什么 我最近一直在给大学和大学的老师们布置任务。我希望通过运动捕捉来实现这一点 其他讲师的老师是声音艺术和电影艺术,因此我计划创建一个程序,跟踪参与者的动作,并在屏幕上用以太设置或随机颜色显示动作 我也希望通过参与者的动作来使用这个项目的声音部分,但是通过动作改变噪音的音调或者通过动作改变声音的速度 我已经设法让一台360 xbox Kinect 1414在处理和运动跟踪方面发挥作用,但似乎不知道如何将椭圆连接到手上。我希望有人能帮助我,而且这似乎不是一项可怕的任务 如果你能帮忙,这里是我的电子邮件地址(alicebmcgettigan@gmail.com)Processing 处理中使用Kinect v1进行运动捕捉,processing,openkinect,Processing,Openkinect,你好,我想知道是否有人能帮我做点什么 我最近一直在给大学和大学的老师们布置任务。我希望通过运动捕捉来实现这一点 其他讲师的老师是声音艺术和电影艺术,因此我计划创建一个程序,跟踪参与者的动作,并在屏幕上用以太设置或随机颜色显示动作 我也希望通过参与者的动作来使用这个项目的声音部分,但是通过动作改变噪音的音调或者通过动作改变声音的速度 我已经设法让一台360 xbox Kinect 1414在处理和运动跟踪方面发挥作用,但似乎不知道如何将椭圆连接到手上。我希望有人能帮助我,而且这似乎不是一项可怕的任
(如果这是不可能的,我会理解的,因为我倾向于让自己的生活变得困难哈哈)您将需要一个中间件库,它可以从深度数据中提供骨架跟踪数据 Windows上的一个选项是使用Kinect SDK的Kinect for Windows处理库 还有另一个名为SimplePenni的库,它可以在多个操作系统上工作。 官方版本不再针对Processing 3进行更新(但适用于Processing 2.2.1)。幸运的是,您可以找到 要手动安装库,请执行以下操作:
- 要跟踪用户,请从user和User3d示例开始
- 注意
返回重心:一个点,而context.getCoM()
可以获取手在3D中的位置context.getJointPositionSkeleton()
- 您可以使用
将屏幕上的三维位置转换为项目二维位置context.convertRealWorldTopProjective()
- 一旦骨骼跟踪锁定到一个人,您就可以获得每只手的关节位置,但值得注意的是,有一个单独的手跟踪功能:签出手/手3D示例。根据您希望跟踪参与者的方式/环境是什么/运动是什么,选择效果最佳的选项
- 说到环境,切记Xbox 360 kinect易受红外光干扰(例如,明亮的白炽灯、直射阳光等):这会降低深度贴图质量,进而影响骨骼跟踪。您希望尽可能多地控制照明,并拥有理想的照明条件李>
- 测试!测试!测试!:)考虑交互和环境(先在纸上画草图可能会很有用),对于每个假设,运行一个基本测试来证明它是否有效。使用迭代学习如何更改环境或交互以使其工作
- 查看RecorderPlay示例:它记录一个包含RGB和深度数据的.oni文件。这是非常有用的,因为它允许您在您可能有有限时间访问的区域进行现场录制,并将节省您不必在计算机和kinect面前来回走动的时间。(使用.oni文件的路径初始化SimplePenni后(例如,
可以使用录制运行骨架跟踪和所有操作context=new SimplePenni(这是recordPath);)
有意思!
只是在没有强制处理的情况下,MS已经发布了C++、C和(不确定这一个)的伟大工具。VB.NET,很容易从visual studio下载。它们的示例包含跟踪特定物理特性等所需的所有代码,可以极大地减少您的工作量。顺便说一句,Kinect v1非常有趣,特别是如果您有……创造性思维的话。