这场虚拟发布会,总共有34个3D美术师和15个软件研究人员参与。
他们一共做了21个版本的数字老黄,从中选出最像的那个,做出了这场精彩的发布会。
还真是把全世界都骗过了。
英伟达“造假”有多强
上面这些“造假”的效果,背后都来自于一个名为Omniverse的平台。
没错,英伟达研发的计算机图形学(CG)技术太多,多到已经能整合成一个平台了。
从CG到优化技术,从工具包到引擎,Omniverse都有提供。
光看Omniverse所承载的CG技术,其实远不止这次发布会用到的“造假”效果,它从渲染、材质,到光影、照明(光追、路径追踪等)都有涉及,还会不断更新相关技术。
原本只是一纸论文的技术,可能不久后就被英伟达放到了Omniverse上,不少都是与AI相关的技术:
例如,缺损像素修补、插帧,已经被用到老照片和古早视频的修复中;还有基于GAN生成超分辨率图像、直接把2D照片渲染成3D场景,都已经能直接在平台上使用……
Omniverse上的渲染技术,究竟达到一个什么样的水准?
据英伟达表示,平台现在可以实时实现电影级别的画质渲染。
以渲染中非常重要的光源模拟为例,我们都知道,真实世界的光源多种多样,我们看到的其实是各种光照下的景物。
传统的计算机渲染,至少需要将光源迭代30+次,才能达到逼真到毛发的效果,即使用最先进的机器渲染,每一帧也基本都需要几十秒。
用上Neural Radiance Cache等技术后,结合RTX GPU硬件和Omniverse平台,光源渲染直接就能实时进行。
例如,这次GTC大会上对于主机的渲染,就采用了Omniverse平台的技术:
除此之外,包括LOD自动生成等技术也能用AI节约计算量,同时保证足够好的渲染效果。
不止是“以假乱真”的渲染效果,Omniverse还能完成更多意想不到的AI技术。
英伟达利用数字人实时渲染技术,在Omniverse中就能构建更逼真的、更符合物理定律的人类模型。
例如,帮助车辆、自主机器、机器人等更好地识别,真实的人类是什么样的,从而更好地设计工厂(图中为数字人):
一夜之间,年轻人集体换上了“业主群闹事头像”。
老实说,袈裟还是得争取的
游侠网有幸采访到了11 bit工作室联合项目主管兼首席设计师 Jakub Stokalski先生和11 bit 工作室联合项目主管兼艺术总监Łukasz Juszczyk先生,在采访中他们为玩家们揭露了关于游戏设计的大量信息,下面让我们一起来看看吧!