Deep learning 如何基于姿势参数可视化SMPL模型的三维关节

Deep learning 如何基于姿势参数可视化SMPL模型的三维关节,deep-learning,computer-vision,pytorch,Deep Learning,Computer Vision,Pytorch,我试图在中使用demo.py。我感兴趣的是从推断出的图像中获取关节,并将其可视化,类似于本项目自述中所述: 我也在这里发布了这个问题: 我试过的都没用。 我改成 pred_顶点、pred_顶点、pred_相机、smpl_姿势、smpl_形状=模型(…)获取smpl_姿势(形状火炬大小([1,24,3,3]))。然后,我通过执行smpl\u pose.cpu().data.numpy()[:,:,:,,-1]。展平('C')。重塑(1,-1),并使用生成的(1,72)姿势参数作为中的输入 结果的可

我试图在中使用
demo.py
。我感兴趣的是从推断出的图像中获取关节,并将其可视化,类似于本项目自述中所述:

我也在这里发布了这个问题:

我试过的都没用。 我改成
pred_顶点、pred_顶点、pred_相机、smpl_姿势、smpl_形状=模型(…)
获取
smpl_姿势
(形状
火炬大小([1,24,3,3])
)。然后,我通过执行
smpl\u pose.cpu().data.numpy()[:,:,:,,-1]。展平('C')。重塑(1,-1)
,并使用生成的
(1,72)
姿势参数作为中的输入

结果的可视化在我看来并不正确。这是正确的方法吗?也许有一个更简单的方法来做我正在做的事情。 问题是

smpl_pose (of shape torch.Size([1, 24, 3, 3]))
SMPL姿势参数表示为旋转矩阵。 您需要将旋转矩阵转换为轴角度表示,即(72,1)。你可以使用罗德里格斯公式来做这件事,正如论文中所说:

从报纸上获取更多信息: