新闻:虚幻引擎现在能通过官方IOS应用捕捉面部表情

运动捕捉是一种用于在三维空间中精确测量运动物体运动的高科技设备。它最初用于军队,自20世纪70年代以来一直用于动画。有三种类型的动作捕捉:身体捕捉,面部捕捉和手势捕捉。其中,人脸动作捕捉技术是一种流行的数据采集技术。它是一个人脸动画模拟的课题,通过捕捉面部表情运动,对采集到的数据进行处理和分析。许多电视节目使用这种技术来制作虚拟主持人、新闻播音员等。虚拟使用是一种成本效益非常高的方法,生产更加实际,并且降低了成本。到目前为止,人脸捕捉技术受到了国内外研究人员的青睐,具有巨大的商业和科学潜力。

针对这一现状,Epic Games最新发布的一款为Live Link FaceIOS应用程序,利用iPhone Face ID和运动协同处理器来制作3D动画,让开发者只需使用iPhone的前置摄像头,就可以在IOSmacOS和游戏主机平台内进行创作录制面部表情。而且由Epic Games开发的游戏引擎Unreal Engine,现在可以通过iPhone中的Live Link Face捕捉即时用户的脸部表情,并将表情投射在Unreal Engine的角色上。

用户只要利用iPhoneTrueDepth相机动态捕捉脸部表情,便可直接导入Unreal Engine;而Live Link Face还支持外部应用程序远程控制,可以同时使用多部iPhone进行录制。此外,用户穿着动作捕捉衣和头戴式装备,更能精准地通过Live Link Face关注头部和颈部动作;而通过蓝牙同步舞台时间轴,确保时间码与录音完全同步。

目前,Live Link Face已经在App Store上架,iPhone用户均能免费下载,它可以将这些面部动画数据实时流式地直接导入到虚幻引擎中的角色上。但Live Link Face需要和Unreal Engine的专业软件配合使用,才能充分利用收集得来的3D动画数据。

Epic的应用通过建立在苹果现有的几项技术上,包括其ARKit增强现实平台,以及苹果在2017年与iPhone X一起推出的True Depth相机。这也是苹果的AnimojiMemoji的技术,它们将你的面部表情映射到卡通头像上。现在,它是可以用来在世界上最流行的游戏引擎中制作头像的动画。

       Epic 并不是第一家想到将苹果的技术作为动画工具的公司。在iPhone X发布后的没多久,开发者就开始用于制作面部捕捉应用,2018年我们还看到出行了一款《行尸走肉》,这是一款增强现实游戏生成面部表情的游戏。但是如果能够将该功能直接内置到全球数百万开发者使用的虚幻引擎中,可以使其覆盖面更广,并使艺术家更容易在他们的作品中使用它。

      Epic表示它的Live Link Face应用可以在各种情况下工作,从艺术家的家庭办公室到有多个演员穿着动作捕捉服和头戴式装备的声场,而且它可以在它们之间进行调整。这款应用还可以远程控制,对此Epic表示,你可以将它设置为使用一个命令同时在多台iPhone上开始录制,一旦导入,面部动画数据可以在引擎中进行调整。



登录用户可以查看和发表评论, 请前往  登录 或  注册
SCHOLAT.com 学者网
免责声明 | 关于我们 | 用户反馈
联系我们: