SIGGRAPH 2018 | 自适应神经网络模拟运动轨迹,四足动物旋转跳跃栩栩如生

bigdataway 提交于 周二, 06/19/2018 - 20:48

雷锋网 (公众号:雷锋网) 按:这里是,雷锋字幕组编译的 SIGGRAPH 2018系列,带你了解 Computer Vision 领域的最新研究成果。

原标题 :SIGGRAPH 2018 Mode-Adaptive Neural Networks for Quadruped Motion Control

翻译 | Binpluto    整理 | 凡江

四足动物的动画制作是一项在计算机动画方面悬而未解的关键问题,而这对游戏,电影和机器人技术方面有着极大的意义。

本期论文提出了一种用于四足运动合成的新型数据驱动方法,并称之为自适应神经网络。该系统可以实现,根据控制命令产生逼真的运动动画和稳定的转换过程。与传统的关键帧动画不同,这项系统不需要单独创建动画剪辑或动画图形,而是能够直接通过数据学习这些动画。

由于四足动物的脚步类型复杂,标记运动模型通常需要专业知识和大量的数据来校准和预处理。

四足运动的数据采集通常也是非常不规则的,并且包括了一系列大偏差的运动。将标准神经网络模型应用于这样的数据可以重现典型的面部情绪,但是会导致明显的滑动迹象造成不自然,或者是人工合成的迹象。

在这项研究中,研究人员开发了这个新型端对端学习架构,可以从大量的非结构化运动的采集数据中学习,通过随机梯度下降法来训练系统,运动数据包括坐,停止,躺,步行,踱步,小跑,慢跑,跳跃,转身和站立。

在训练之后,用户可以交互式地实时控制运动特性并且启动各种运动模式和动作,通过使用简单的键盘控制命令 地面上的红色和绿色箭头 标示了运动控制信号,用于估计用户想要导引的轨迹。

简而言之,该论文提出了基于模式自适应神经网络的实时 Quattro(四轮驱动系统 four -wheel system)和运动合成,这是第一个系统化近似构建一个数据驱动四驱衰减运动特性控制器的方法,产生字节上变化的运动模式动作和不同的转换,这就可以实际使用的系统用于端对端非结构化运动捕捉数据,而不用为运动面或运动模型给出标签,整个系统很流畅,该动画演示非常自然。

Github: https://github.com/sebastianstarke/AI4Animation

论文原址: https://github.com/sebastianstarke/AI4Animation/blob/master/Media/SIGGRAPH_2018/Paper.pdf

雷锋网雷锋网

雷锋网原创文章,未经授权禁止转载。详情见 转载须知

标签
分类