共查询到16条相似文献,搜索用时 46 毫秒
1.
2.
3.
目的智能适配显示的图像/视频重定向技术近年受到广泛关注。与图像重定向以及2D视频重定向相比,3D视频重定向需要同时考虑视差保持和时域保持。现有的3D视频重定向方法虽然考虑了视差保持却忽略了对视差舒适度的调整,针对因视差过大和视差突变造成视觉不舒适度这一问题,提出了一种基于时空联合视差优化的立体视频重定向方法,将视频视差范围控制在舒适区间。方法在原始视频上建立均匀网格,并提取显著信息和视差,进而得到每个网格的平均显著值;根据相似性变化原理构建形状保持能量项,利用目标轨迹以及原始视频的视差变化构建时域保持能量项,并结合人眼辐辏调节原理构建视差舒适度调整能量项;结合各个网格的显著性,联合求解所有能量项得到优化后的网格顶点坐标,将其用于确定网格形变,从而生成指定宽高比的视频。结果实验结果表明,与基于细缝裁剪的立体视频重定向方法对比,本文方法在形状保持、时域保持及视差舒适度方面均具有更好的性能。另外,使用现有的客观质量评价方法对重定向结果进行评价,本文方法客观质量评价指标性能优于均匀缩放和细缝裁剪的视频重定向方法,时间复杂度较低,每帧的时间复杂度至少比细缝裁剪方法降低了98%。结论提出的时空联合... 相似文献
4.
针对人体两足动画提出一种基于足迹采样的运动编辑算法.足迹很好地描述了两足动画中必须满足的时空约束,通过调整足迹的位置与朝向来编辑两足动画是一种较为自然、直观的交互方式.为有效、快速地生成编辑后的动画,采用一种实时的逆向运动学算法求解两足动画中的支撑脚约束,然后使用层次B样条技术构造偏移映射完成编辑.为了便于逆向运动学算法的求解,提出基于采样的方法来计算质心轨迹. 相似文献
5.
基于约束轨迹重构的运动编辑 总被引:2,自引:0,他引:2
提出了一种运动数据重用的方法.采用偏移映射技术构建模型末端的位姿约束轨迹,该轨迹较好地保留了原始运动的特征;利用Unscented卡尔曼滤波方法求解约束,可以实时地生成与原始运动相似的新运动.实验结果表明,该方法可以生成满足不同模型和场景要求的多种运动,扩展了捕获数据的应用范围. 相似文献
6.
保持时域连贯性与保证图像空域的重建质量在视频重定向中至关重要。针对这个问题,提出一种基于运动历史图的网格变形方法进行视频大小的调整。通过估计帧间摄像机的运动,将视频帧对齐在时间轴上,构造全局运动模型,从而获得全局运动历史图;利用运动历史图来顺序指导单帧图像形变,将单帧图像的放缩问题转换为网格变形问题,通过构造一系列约束条件在网格上建立保持整体形状的最优化模型,实现背景的时间连续性的同时又有效地保持运动对象的形状。测试结果显示无论是处理静止的视频还是具有复杂运动的视频,该方法都能获得令人满意的结果,且能实现对视频流的实时处理。 相似文献
7.
8.
人体运动路径的编辑算法 总被引:1,自引:0,他引:1
对现有的路径编辑方法进行了较大改进,将运动自动简化技术引入到传统的时空优化方法中,同时将物理约束引入到传统的路径变换方法,保证了优化过程的快速收敛和结果运动的物理真实性.算法框架包括模型简化、运动简化、路径编辑、运动合成和运动复原等5个部分.实验结果表明,该算法能够将人体运动从原始路径上成功地映射到新路径上. 相似文献
9.
10.
11.
为了减轻动画制作劳动强度,提高动画制作产能以及自动产生仿真动画,提出了一种结合运动捕获器(Motion Capture)技术与逆向运动学原理的用于完成关节动画中实时运动重定目标(Motion Retargeting)的新算法,该算法的主要概念是首先根据“原动者”与“标的者”之身材比例,推算出、标的者”末端效应器之定位,然后再利用逆向运动学之算法求得“标的者”各关节之旋转角度,因为该算法充分地利用了捕获器所纪录的“原动者”运动信息的密集重复性,而且所设计之定位法则能满足原运动对未端效应器之约束,所以该方法能展现出与原运动十分相似的动画,同时不违背原设定之约束,实验数据也展示,并说明了该算法之效能与优点。 相似文献
12.
We present a novel approach for style retargeting to non‐humanoid characters by allowing extracted stylistic features from one character to be added to the motion of another character with a different body morphology. We introduce the concept of groups of body parts (GBPs), for example, the torso, legs and tail, and we argue that they can be used to capture the individual style of a character motion. By separating GBPs from a character, the user can define mappings between characters with different morphologies. We automatically extract the motion of each GBP from the source, map it to the target and then use a constrained optimization to adjust all joints in each GBP in the target to preserve the original motion while expressing the style of the source. We show results on characters that present different morphologies to the source motion from which the style is extracted. The style transfer is intuitive and provides a high level of control. For most of the examples in this paper, the definition of GBP takes around 5 min and the optimization about 7 min on average. For the most complicated examples, the definition of three GBPs and their mapping takes about 10 min and the optimization another 30 min. 相似文献
13.
为了使人们对3维人体运动编辑与合成技术有个概略了解,对当前3维人体运动编辑和合成技术的研究现状进行了系统阐述。首先对4大类3维人体运动合成方法进行了分析比较;然后按照运动捕获数据的表示方法、运动编辑技术、运动合成技术3个方面着重分析了运动捕获数据驱动的运动合成方法的发展现状;最后对目前3维人体运动编辑与合成技术研究中的难点问题及未来研究重点进行了展望。 相似文献
14.
提出一种三维人脸动画数据编辑与合成的有效方法,使用户可以在三维人脸模型上选定控制点,并在二维平面上指定表情动作的约束条件.根据人脸动画数据训练一个先验概率模型,将较少的用户约束传播到人脸网格的其他部分,从而生成完整生动的人脸表情;通过Isomap学习算法对三维人脸动画知识进行建模,并结合用户指定的关键帧拟合高维曲面上的平滑测地线,以自动合成新的人脸动画序列.实验结果表明,该方法可以直观地对人脸动画的生成进行交互式控制,并能生成较为逼真的表情动画. 相似文献
15.
针对舞蹈表演创作与编排中的舞台构图和动作片段连接问题,实现了相应的计算机辅助舞蹈创作与编排技术.舞蹈创编人员可在计算机中对演员的走位和队形进行自由编辑,组合不同的表演动作片段.通过这些辅助工具,能够在演员实际表演前调整舞台效果并获得相应的预览,降低实际编排的难度与工作量. 相似文献
16.
We present a novel method for retargeting human motion to arbitrary 3D mesh models with as little user interaction as possible. Traditional motion‐retargeting systems try to preserve the original motion, while satisfying several motion constraints. Our method uses a few pose‐to‐pose examples provided by the user to extract the desired semantics behind the retargeting process while not limiting the transfer to being only literal. Thus, mesh models with different structures and/or motion semantics from humanoid skeletons become possible targets. Also considering the fact that most publicly available mesh models lack additional structure (e.g. skeleton), our method dispenses with the need for such a structure by means of a built‐in surface‐based deformation system. As deformation for animation purposes may require non‐rigid behaviour, we augment existing rigid deformation approaches to provide volume‐preserving and squash‐and‐stretch deformations. We demonstrate our approach on well‐known mesh models along with several publicly available motion‐capture sequences. 相似文献