自研搜索引擎!
现场众人一片哗然。
等等,刚才方豫并没有否定这就是实机演示,反而说这是基于柚子科技的自研引擎——蜃景1.0,难道说这真的是在手机端达成的?
别说手机的处理能力,就算一台GTX1080双路交火的PC神机,或索大法刚刚公布的PS4Pro,哪怕有外设,也不可能达成这个效果!
而这是在手机上达成的?!
还是自研引擎?
“当然,世界观介绍后的那一段,底层架构还没有做好,是使用AI协助生成的宣传片,但前面‘影’部分的游戏画面,确实是使用‘蜃景引擎’开发出来的。”
方豫这句话一说完,现场所有人都不由得脸色一变。
真的是实机演示!
艹艹艹!这太特么离谱了!
哪怕不是AR,不和实景相结合,刚刚相当一部分画面手机GPU渲染起来都费劲。
水果上个月发布的A10不行,高通的骁龙821更不行!
如果结合上AR实景的实时运算,桌面级产品也没戏!
方豫不用看,都知道其他人是什么表情,微微一笑。
“可能有人会质疑,‘蜃景引擎’是如何做到在手机这样的轻量化计算平台上实现实时建模渲染,并且做到与实景几乎无延迟结合的。”
方豫拿了一支触控笔,在大屏幕上显示的keynote上写写画画。
“具体的技术问题我今天不详细展开,只说一下原理。”
“第一,‘蜃景引擎’的云端架构其实承载了最主要的渲染计算,返回到手机上的,只是渲染后的‘状态’数据,这部分数据量其实很小,每秒只有3mB左右。”
云端计算?每秒只需要3mB的数据传输?十年前的半条命渲染一面墙都不够吧?
“不是大家理解的这样。”
听到有人在下面有些疑惑的讨论,方豫摇了摇头:“我们并不是将帧画面流推送到手机,而是将每一帧的场景状态、材质映射信息、光照解算等用定制协议传回,而这一部分协议数据,仅占3mB/s。”
真的假的?祝一飞嘴唇微动,还没等他追问,就听到方豫继续道:
“第二,之所以这些‘状态’数据能做到这么精简,是因为‘蜃景’独有的‘环境探针阵列’技术。”
环境探针阵列?听到个新名词,所有人都聚精会神的盯着方豫。
“‘环境探针阵列’并非实体探针,而是我们开发的一种基于AI视觉系统的纯软件虚拟概念,是在移动端完成这部分的计算。”
“通过调用GPU的资源重复绑定,在2.5秒内针对视觉内的环境钉入数千枚虚拟探针,这些探针钉入后,云端渲染的素材会固化在这些探针上,从而做到无论摄像头如何移动,都不会延迟脱层的效果,只是这一项,就节约了超过90%的AR重复渲染资源。”
众人听得似懂非懂,他们虽然是游戏开发者,但涉及到这种底层技术是如何达成的,能搞懂的屈指可数。
“第三,就是蜃景引擎最重要的特性——‘模拟现实刷新’,也正是这个特性,能够让蜃景引擎在移动端的GPU算力下,实现刚刚看到的3d画面渲染效果。”
说到这里,方豫停顿了一下,环顾了一圈,看到众人皆是一脸茫然。
模拟现实刷新?什么意思?浮动刷新率吗?VVR虽然不算什么新技术,但移动端GPU还没有吧?
方豫翻了一页keynote。
“模拟显示刷新不是调整刷新率,而是一种算法,一种能够在大多数环境下,相较虚幻4节省95%渲染资源的算法,蜃景自然能够将更多的算力投入到更好的渲染效果中。”
日常场景下节省95%渲染资源!?
什么算法也不可能做得到啊!
祝一飞额头和面颊都是红的,皱着五官举手:
“方总,就算您刚讲的环境探针阵列能够降低每一帧材质的重复渲染,但只要是运动画面,每帧毕竟仍旧还有大量材质需要实时渲染。”
“刚刚您的第一段演示,屏幕上的帧率是38帧-60帧,这种效果如果是实时渲染,哪怕是GTX1080的理论值,也得卡成翔,最多也就十几帧。”
“哪怕再差的游戏引擎,对GPU的核心执行单元的有效利用率也有30%以上,虚幻4大概在45%-60%之间,没有那么大的提高空间。不是我不信,主要是这节省95%渲染资源,突破了理论极限了啊。”
方豫一看有捧哏的,眼睛都亮了。
可以啊虎老大,路走宽了呀。
方豫点了点头,嘴角微翘:“你说的没错,如果采用虚幻的实时渲染方式,不管是移动端还是桌面端,应该都跑不动。不过,虎老大,我问个问题。”
祝一飞目光诚恳:“您说。”
方豫