我的订单|我的收藏|我的商城|帮助中心|返回首页
搜维尔[SouVR.com]>服务>案例分享 应用研究>案例分享>增强现实

Unity:使用虚拟制片,完成电影《Dark Asset》从预演到成片的创作过程

文章来源:VR陀螺 作者:frank 发布时间:2023年01月06日 点击数: 字号:

导演Michael Winnick(曾执导电影《Guns, Girls and Gambling》)的最新电影项目《Dark Asset》是一则关于间谍、微芯片和军方科学家的故事。其中一位科学家更是由扮演《演终结者2》中的人形机器人角色T-1000的Robert Patrick扮演。这就是动作惊悚片最佳组合。

当然这里我们不会剧透,而是介绍一下影片的视觉特效总监Setareh Samandari,所使用的虚拟制片方法,也就是如何使用Unity虚拟制片的Previs(预演)生动地展现成片,并加快制作流程。在本文中,Setareh讲述了自己从好莱坞Gnomon School of Visual Effects毕业后的四年VFX艺术创作生涯。

我们很想听听《Dark Asset》早期的制作流程。是什么让你选择了使用虚拟片场?

Michael Winnick和我讨论过是自己搭建一个虚拟场景还是去找个实景。我们谈了谈每个优点,并最终为了节省成本与时间而选择搭建虚拟片场。除了两个用在LED墙上的环境,我们还制作了两个完全用绿幕投影的场景。

由于是在Unity中实时运行的,虚拟片场还带来了很多其他好处。使用预演(Previs)后,我们能立即讨论哪几个镜头做成CG、哪些用绿幕,怎样编写故事板、安排拍摄角度等等,所有这些通过Zoom就能完成。

使用实时资产对片场活动产生了怎样的影响?

在《Dark Asset》以及其他我所参与过的项目(如Shani的《Breathe Free》MV短片)中,Unity让导演、摄影指导(DP)、设计师和VFX总监等主创能实时看到虚拟片场并与之互动,让拍摄变得大不一样。沟通和指导变得更加清晰。

我们也能在片场调整虚拟背景,保证角色能融入绿幕场景。所有这些为Michael及其团队带来了许多的创作选择,也让我们能贴近自己的创作意图。

它也帮了演员们大忙。在用绿幕而非LED屏幕拍摄时,我们可以实时预览演员们在虚拟舞台上的站位,也让演员能预览摄像机的运动。

所有的灯光和场景布置也可以交互调整,相比原来导回NUKE中进行调整来说要简单太多。这节省了很多后期制作的时间,节约了大家的生命;尤其是我们其实做了大量的预演(previs)。它让每个人也能更清楚片场所发生的一切。

这听起来就是一大进步。你能带我们领略一个用实时资产搭建的场景吗?

有一个场景是女主角坐在办公室里,其中的3D背景就是我用Unity搭建的。我可以从摄像机视角打入真正的灯光到绿幕上,使其看起来更真实。

与Michael一同设计他想要的办公室也非常有意思。我可以直接用Unity已有的资产和材质摆出办公室的格局,同时Michael指导我做出想要的风格。

Unity Virtual Camera跟踪绿幕下的镜头,将演员安插进Unity中的实时3D(RT3D)场景。

Unity有为《Dark Asset》的片场带来明显的不同吗?

它让一切更快更轻松!我不用再担心长时间的渲染,因为可以立即做出改动并看到结果。影像合成比实时3D项目要慢很多。

有这样一组镜头,我们需要打碎玻璃,但玻璃在拍摄当天却碎不了。所以我们加了一种类似的玻璃场景元素,在绿幕前打碎,但它是在Unity中设置光照和渲染的。我们可以实时做编辑,就像在现场拍摄一样。我们还能更精细地控制最终镜头,不必重新进行拍摄,节省了不少时间与成本。

Habib Zargarpour在片场:实际使用中的Unity

我们使用了Unity Virtual Camera来跟踪镜头、预览绿幕上的虚拟场景。我们也用它来编排CG场景里的运镜,将演员拍到虚拟场景中。

Virtual Camera与iPad跟踪系统相配合,使得设备在移动时,CG场景里的摄像机也能跟着移动,并将画面流式传输到设备上。我可以自由地走动并查看镜头组成,记录摄像机的运动来进行拍摄。

我们还找到了另一种节省时间的用法。在整个影片中,演员们需要时不时用到一款应用。本来我们得用一部盖着绿布的iPad和几个边角追踪器,然后在上百个跟踪镜头里替换掉绿幕,但我们又想:为什么不在Unity里做个应用呢?

我们很快在Unity里做了个“道具(prop)”应用,再根据导演的要求实时做修改。它带着所有必要的界面,演员能直接在摄像机前使用,为我们节省了大量跟踪设备所需的时间和精力!

Unity制作的交互式“道具”应用

你提到了Virtual Camera。它为什么对拍摄这么重要?

我们希望在片场就预览绿幕上的虚拟环境,以便在后期添加细节,直接将其从Unity导出到NUKE来渲染最终效果。

在虚拟场景中,我们使用了Unity Virtual Camera来编排新的运镜甚至整个镜头。我们可以改变拍摄的打光、镜片和焦点,拖动时间轴,并直接在场景里查看动画。接着,我们再用全CG或包含绿幕的最终镜头来制定最后的运镜。

你还谈到虚拟制片加快了片场的打光流程。你们是怎样打出灯光的?

我们增加了Probe Volume Lighting作为光源。我们可以快速烘焙光照,一个像素一个像素地修改灯光,使其更具细节、更为逼真。否则,按照以前的做法,我们得为每个对象安插光照探针。

接着再配合上高清渲染管线 (HDRP)、实时光追全局光照和实时光反射。逐渐建立起最终渲染的能力非常棒。

所有这些,配上HDRP的Depth of Field组件及其他后期处理,让我能完全地控制每个镜头,做出想要的效果。

你谈到了HDRP,Unity可编程渲染管线之一。再详细介绍下你在HDRP里的工作吧。

HDRP让我这个VFX艺术家也能实时做出逼真光照。它不仅能用在预演,还能为电影渲染最终的画面合成。

在《Dark Asset》中,我在带alpha通道的线性颜色空间中使用了HDR EXR,在后处理体积(Post-process Volume)上用了ACES颜色空间(这部分在线性空间中渲染时必须将其关闭)。

在HDRP中渲染、用于最终合成的场景,使用了带alpha通道的HDR EXR文件。

你用了哪些其他方法让场景如此逼真?

为了提高写实度,我在室内使用了Area Light(区域光)。在另一个复杂场景里,我们需要将角色做成全息影像。

为此,我将绿幕镜头导入到Adobe After Effects初步做出外观,然后用HDRP后处理中的Volumetric Fog来照亮全息影像的光线。随后我将After Effects的片段导入到新建的一个多边形上。然后用渲染纹理来放置角色。这样一来,他们就能与场景的灯光互动,在周围和Volumetric Fog上投下阴影。

这是一种新的打光方法。你用不到光照贴图,可以直接将光照烘焙到这些探针体积里,再放到需要影响的区域。你可以设置光线反弹的次数和密度,再花四秒左右完成烘焙。这里没有等待流程,动态和静态物体也没太大区别,所以如果只要角色走过场景,他就会被探针体积照亮,静态物体也是一样。

你还可以在此之上添加光线追踪和SSGA,让Unity来负责不同对象的渲染。它能产生非常接近现实的效果。

HDRP Probe Volumes

在这个项目之前你用Unity拍过电影吗?

用过,我已经搭建过一个完整的虚拟世界用于三部短片的拍摄,它们以Jack Lenz的音乐为主题。那时我才学了一周Unity。它上手非常简单。最棒的是我能在一个场景中灵活地为每个影片导入和移动资产。

除了在《Dark Asset》中的工作外,虚拟制片对整个行业有什么样的影响?你觉得它会走向何方?

虚拟制片让拍电影更易被接触,尤其是对独立电影来说。原本需要大团队才能做到的事,虚拟制片让我们能用更少的资源制作任意规模的项目。

我喜欢看到VFX方面的创新,尤其是在虚拟制片上。技术无时无刻不在进步,它让我在现场就能表达想法。你可以直接改变整个世界,不必再外出探查新场地,减少时间及其他方面的限制。

VFX工作有很多方面需要耗费大量时间,比如为环境打光、渲染完整场景并编排复杂镜头。但实时的预演,特别是光照和渲染,为我节省了很多时间。而LED屏幕墙等技术也能节省实景片场带来的开支。

LED屏幕墙让我们能快速完成拍摄,并在预演到最终VFX镜头中使用相同的资产。由于有这么多的优点,整个行业都在不断向实时技术倾斜。

本文转自Unity Blog~

电话:010-50951355 传真:010-50951352  邮箱:sales@souvr.com ;点击查看区域负责人电话
手机:13811546370 / 13720091697 / 13720096040 / 13811548270 / 13811981522 / 18600440988 /13810279720 /13581546145

  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料