人工智能进入动画制作,达到了令人毛骨悚然的效果!

bigdataway 提交于 周三, 08/02/2017 - 18:04

人工智能进入动画制作,达到了令人毛骨悚然的效果!“补救”是“艾伦·威克”(Alan Wake)和《量子突破》(Quantum Break)等公司背后的开发商,它与gpu - maker Nvidia(英伟达公司)合作,简化了现代游戏开发的一个更昂贵的部分:动作捕捉和动画。正如在Siggraph(美国计算机协会)上展示的那样,通过在Nvidia昂贵的8 gpu dgx - 1服务器上使用深度学习神经网络,自然疗法能够在演员表演台词的视频中进食,从这些视频中,网络生成了令人惊讶的复杂的3D面部动画。根据补救和英伟达的说法,这就消除了通常与传统动作捕捉动画相关的“劳动密集型数据转换和触摸”的时间。

除了成本,面部动画,即使在拍摄时,也很少能达到与其他动画一样的逼真度。这种奇怪的、死气沉沉的样子,即使是最轰动的游戏,也常常被归结为脸部动画的极限。Nvidia和补救相信它的神经网络解决方案能够产生好的结果,如果不是更好的话,比传统技术所产生的效果要好。甚至可以完全跳过视频,只给神经网络提供一个音频剪辑,它可以根据之前的结果制作出一个动画。

神经网络首先提供了一种“基于多视图立体跟踪和艺术增强动画的高端产品面部捕获管道”,这意味着在之前的动画修复程序中提供信息。据说,这个网络只需要5到10分钟的视频,就可以在简单的单目视频捕捉演员的基础上制作动画。与最先进的单目和实时面部捕捉技术相比,全自动神经网络产生了令人毛骨悚然的良好效果,而动画制作者的投入要少得多。

通过网络训练,可以在音频性能中进行输入,然后将其映射到一个3D模型来生成动画。这个过程涉及到“一个紧凑的、潜在的代码”,它可以通过音频记录来推导出无法推断出的面部表情的变化。该代码可能是用户控制的,这将允许对生成的动画进行调整。

“基于英伟达的研究成果,我们已经看到了ai驱动的面部动画,我们确信人工智能将彻底改变内容创作,”《补救》的主角技术艺术家Antti Herva说。“数字双打的复杂面部动画,就像在量子破解中那样,可能需要数年时间才能创造出来。”在与Nvidia合作建立视频和音频驱动的深度神经网络后,我们可以在大规模的项目中减少80%的时间,并让我们的艺术家们更专注于其他任务。

Nvidia在Siggraph上有更多基于ai的有趣的演示,训练一个神经网络来识别游戏中三维物体的锯齿状边缘,用平滑的反锯齿像素代替它们。该技术据称能产生比现有的抗锯齿技术更锐利的图像。Nvidia还利用一个神经网络来加速射线追踪渲染,这是一个众所周知的计算繁重的任务,通过训练网络来区分最有用的光线路径,而不是对结果图像做出贡献的路径。

虽然这些技术令人印象深刻,但它们可能需要一段时间才能进入专业的工作流程。

谈到专业的工作流程,英伟达还对其Titan xp显卡的驱动程序进行了更新,这显然会使像Maya这样的应用程序的性能提高三倍。如此巨大的性能增长让许多用户质疑Nvidia是否有意推迟了“泰坦Xp”的性能,以推动用户使用更昂贵的Quadro显卡。今年6月推出的同样定价的AMD Vega Frontier Edition卡,可能与Nvidia的驱动程序更新有关:AMD(超微半导体公司)将Vega FE作为组合生产卡和游戏卡,在多个生产任务中击败了泰坦。

与此同时,AMD使用了Siggraph来发布新的RX Vega 64和RX Vega 56游戏显卡。RX Vega 64被认为与GTX 1080“交易”,而RX Vega 56被认为与GTX 1070相同。这两张卡将于8月14日发行,售价为500美元和400美元(英国定价为TBC)。 这篇文章发源于英国Ars Technica UK

分类