众神之巅再进一步 万元非公版GeForce RTX 2080 Ti测试

GeForce RTX为什么这样贵?

GeForce RTX 2080 Ti在发布以后,大家议论的不是强大的性能,也不是惊艳的RTX特性,而是价格,GeForce RTX 2080 Ti的MSRP创纪录的高达999美元,如果是高贵的Founder Edition售价更是高达1199美元,并且这个价格还是不含税的价格。

国内再加上关税/增值税,还有汇率的影响,低规格的GeForce RTX 2080 Ti乞丐版也接近9000,而高贵的Founder Edition价格更是高达9999,而各家高规版本价格甚至到了五位数。

虽然大家都在吐槽GeForce RTX 2080 Ti贵,但问题是首发之后所有卡都还是被秒光。然后咸鱼上加价出售的卡,即使加到12000依然还是供不应求,这无疑是真香。这也用事实说明GeForce RTX 2080 Ti的定价并不高,不要说你觉得贵,这只是说明你太穷,当然我自己也是穷逼,舍不得花钱买。当然这部分需求除了想要早一分钟拿到的土豪玩家,还有看重Tensor Core性能的深度学习行业客户,对于他们而言算力就是金钱,在两个力量的共同推动下,GeForce RTX 2080 Ti的售价持续走高也在预料之中。

除开非正常因素的汇率波动,奸商炒作,仅仅考虑MSRP的官方建议零售价,GeForce RTX 2080 Ti 999USD的价格依然远远高于699USD的GeForce GTX 1080 Ti。但这个价格是否真的贵,我觉得我们需要站到一个更为宏观的立场上来看这个问题。

显卡的核心成本在于GPU+VRAM两部分,而其他PCB上的相对价值较低。GPU+VRAM这两部分是NVIDIA打包出售给AIB。在这两部分之中,占大头的也主要是GPU核心。

GPU核心的生产方式是NVIDIA像台积电下单,生产Wafer(如上图),再从Wafer上切割下GPU晶圆。相同工艺情况下,相同尺寸的Wafer的价格相对恒定,如果GPU的核心面积小可以切割的芯片数量就多,相对单价就低,如果单个GPU的核心面积大,一个Wafer切割的芯片数量就少,那单价就高。另外大芯片如果发生不良,需要 废的面积也更大,而小核心不良的损失也会比较小,GPU芯片这样的生产方式主要决定了其生产成本构成。

新工艺的Wafer相比老工艺的Water会更贵,但在良品率没太大问题的情况下,收益还是巨大的。以TSMC 28nm到16nm为例,其可以提升一倍的晶体管密度。这就意味着相同晶体管规模的GPU,相同尺寸的Wafer可以切割出来两倍的GPU,这样成本就大大降低了。

我们来看从8800GTX开始看NVIDIA的旗舰GPU的核心面积和首发价格,在GTX 680之前,一直都是维持比较稳定的大核心策略。但到GTX 680开始,由于40nm到28nm的受益极高,便开始小大核心交替策略:首先是利用工艺红利,做一颗300mm水平的中等规模核心GK104,但依然可以超过之前GF110大核心的性能水平。然后再推出同工艺同架构的一个大核心的GK110,这样的变化就使得显卡迭代更新从一年一大代变成两年一大代。而后续GTX980相对GTX780TI工艺依然维持28nm,性能提升完全得益于架构的改YAN进GE。Maxwell架构相比Kepler架构很大程度阉割了基本和游戏性能无关的双精度计算能力,从而大幅缩减了芯片规模,GTX980用400mm2不到的面积实现了比GTX780TI 561mm2更好的性能,而GTX980TI的GM200又是规模的再次放大,回归旗舰应有的规模水平。

GTX 1080完全是吃16nm的工艺红利,TSMC 16nm的密度是28nm的两倍,GP104用314mm2的芯片规模就实现了接近GTX 980Ti GM200 649mm2的规模。当然这只是接近,72亿 VS 80亿晶体管还是有差距,但还是得益于16nm的红利,GTX1080直接将之前GTX980TI的1.2GHz核心频率拉到了1.6-1.7GHz水平,得益于频率提升性能还是实现了大幅超越。GTX1080TI的又是980TI故技重施,单纯将GTX1080规模放大50%,但即使如此,GP102的核心面积只有471mm^2,在大核心里只能算是小个子。工艺红利更新中等规模核心产品的时候,产品的售价相对较低,但同时核心面积缩小的更多,使得售价/核心面积的比值也更高,NVIDIA还是可以从工艺升级获得更多利润。

RTX 2080/2080 Ti工艺虽然从TSMC 16nm升级到12nm,但TSMC这个12nm其实更新是营销上的手段,12nm的密度相比16nm基本没有提升。要进一步提升性能只能扩大规模或者改进架构。这次RTX 2080和RTX 2080 Ti直接将核心面积拱到了545和754mm^2,即使是545mm2的TU104的核心面积完全也是以前旗舰级别,而754mm2的TU102更是逼近了2999美元GV100的size,可以说是有史以来最大的消费级芯片。(GV100的Tian V虽然是Titan,但本质不是游戏卡,放在这里仅供参考)

545mm2的GeForce RTX 2080相比471mm^2的GTX 1080 Ti卖到699USD的同价完全合理,这里同之前314mm2的GTX1080比较并不合适。而比GTX 1080 Ti大上60%的TU102,在核心规模加大的同时,相应的PCB和供电也需要增加相应的成本,再加上全新的GDDR6再溢价43%看上去不仅不JS,似乎还很厚道。

但从FP32的性能看,RTX的性能提升幅度并没有赶上晶体管数量(十亿)的增长,实测的游戏性能也是如此。

因为图灵架构新加了Tensor Core用于深度学习,RT Core用于光线追踪,这些部分的电路都不能直接体现到FP32性能和传统游戏性能之上,INT32部分虽然可以提升游戏性能,但还是不能提升用于上面比较的FP32性能。

之前80和80TI都是跨年迭代更新,但这次GeForce RTX 2080和GeForce RTX 2080 Ti是同时发布主要是有两方面的考虑,第一是GeForce RTX 2080相比GeForce GTX 1080 Ti并没有明显的性能优势,第二是明年就有7nm,并没足够的时间分割发布。其实工艺升级不仅可以给消费者带来更低的价格,对于NVIDIA而言成本下降更多,利润空间也更大。

Founder Editon的挑战者

GeForce RTX 2080 Ti Founder Edition由于GPU更高的功耗,一改以往单涡轮设计,而改成双风扇的煤气炉造型,虽然这个造型被很多吐槽丑,但从实物看却很漂亮别致。

这点的差别和iPhone 5/6一样,实物有照片很难体现的质感,Founder Edition前后由两片5mm的铝材折合而成,边缘部分的抛光切角也很别致,说想舔虽然有点夸张,但至少是爱不释手。

原有公版备受诟病的温度和噪音问题也大幅改善,供电也得到加强,因此这次Founder Edition并不像之前的公版那样弱鸡。FE的价格方面虽然比乞丐版高,但相比各家高规也并不算贵,因此这次Founder Edition相比之前有更强的竞争力。但这次Founder Edition和之前的Titan一样,不再开放AIB贴牌销售,而改成NVIDIA通过京东渠道自营,这有点与下游争利的意思,甚至让人想起当年3DFX收购STB之后发生的事情,但差别是现在的NVIDIA无疑比当年的3DFX更为强势。

GeForce RTX 2080 Ti Founder Edition可以说是NVIDIA历史上最为豪华的公版。不过公版豪华并不是好事。从GPU发展的历史历程看,AMD和NVIDIA同级竞品,公版豪华的肯定是失败者。因为只有在架构效能上出现问题的时候,才需要扩大芯片规模和拉升频率,并为其配备更为豪华的供电和散热。但即使如此,这些改进基本仅仅能够满足GeForce RTX 2080 Ti TU104的需求,但对于巨无霸的TU102依然还是有点力不从心。因此还是给各大AIB推出加强非公留出了足够的发挥空间。但现在阶段国内首发的GeForce RTX 2080 Ti绝大多数都是采用的公版PCB+第三方散热,非公版PCB基本只有ROG STRIX和微星GAMING X TRIO,而更高规格的波塞冬、Lightning和HOF应该还需要等待一段时间。

微星的RTX2080TI暗黑龙爵,并没有像上一代采用和自家Gaming系列相同的PCB,而是直接采用的公版,我们可以发现三风扇的散热器比PCB要长一截。

而微星的Gaming X Trio则是完全的非公设计,也高大魁梧得多。

其采用越肩PCB,8Pinx2+6Pinx1的供电,NVLink接口和公版是相同水平高度,如果需要2张SLI,需要将外部的装饰挡板拆除。

这是微星的Gaming X Trio的PCB(图片来自Techpowerup),显存左边的布局基本和公版一样,而右边供电部分就有所加强,但从PCB的布局看,这个供电规模即使通常高度也布置的下,似乎有点为了越肩而越肩的感觉。

玩家国度的ROG STRIX RTX 2080 TI GAMING OC还是采用和之前相同的ID设计,但在细节上也有不少的改变。

风扇的扇叶重新做了设计,扇叶外缘加了边框,这个设计和温柔台风的GT3000设计差不多,外框可以使得风量更为集中,同时在高转速的情况下也可以减少扇叶的摆动,降低噪音。

STRIX在顶部有一个小的BIOS切换开关,两个BIOS在风扇策略有所差别,一个偏向静音,而另外一个偏向效能,但噪音相对较大,此外双BIOS也可以在刷挂的时候应急。

RTX显卡增加了VirtualLink接口,其在物理上和USB Type-C一样,但其本质是DP 1.4,可以32.4Gbps带宽,可以传输4K 120Hz 8bit画面和额外的10Gbps USB 3.1 Gen 2数据,此外相比标准的DP增加了额外的30W供电能力,这样用其接驳VR的时候就不需要单独接HDMI数据/供电和音频,现在一根线缆就可以搞定。VirtualLink联盟是由Nvidia、AMD、Valve及Oculus主导,HTC并未参与,目前也没支持VirtualLink的VR设备上市销售,因此实际还是有点遥远。因此接口方面STRIX还是将公版的3DP+1 HDMI改成了2 DP+2HDMI。这样的设置用户可以同时接驳一部VR和一部HDMI显示器,这样的适用性更好。

STRIX RTX2080TI背板还是延续之前STRIX GTX1080TI的设计,在NVLink接口下方有个开关,可以不用AURA通过程序,而使用物理按键的方式关闭灯光,当然,在非裸机情况下我还是选择用AURA的软件控制。

STRIX RTX2080TI的PCB高度远高于公版,NVLink接口的高度不一样,因此两者不能相互SLI。

ROG STRIX RTX 2080 TI GAMING OC灯光部分采用和STRIX GTX1080TI相同设计,依然是单色变化,相比主板的RGB多色流光溢彩效果还是略差。

不过ROG STRIX RTX 2080 TI GAMING OC在前端增加了一个红色4Pin 12V的AURA接口。

可以将支持AURA的外设接驳在显卡上来实现灯光同步,这对我个人就很有吸引力:我自己 使用的是不支持AURA的老型号X99,性能堪用,又不至于淘汰,现在我就可以基于STRIX RTX2080TI来构建AURA的灯光系统,而不用更换整套平台。

接下来是TEARDOWN部分,在开始之前我们先来看看之前1070TI和STRIX GTX1080的散热器,早期STRIX GTX1080是采用的热管直触,但GP104核心过小,旁边两个热管基本没有接触,导致散热并没有充分发挥效能,但这个问题在STRIX 1080TI/1070TI时候得以改进,改成了整体。

新一代散热器ID虽然还是延续之前的设计,六热管,但在散热规模上更大,表面积相比上一代要大20%,整体感觉要更为厚实,也因此需要占用2.7个槽位。

ROG STRIX RTX 2080 TI GAMING OC核心接触部分相比之前的1080TI改成镜面工艺,表面更平滑,和Die的接触面更为紧密。

散热器规模更大,重量也更重,为了分单散热器重量ROG STRIX RTX 2080 TI GAMING OC还增加了和后挡板连接的金属中框,大大加强了整体的结构,此外还可以起到给显存散热的作用。

拆掉中框就可以看见PCB的全貌。ROG显卡都采用全自动机器插件,在品质上更为可靠,可以避免人工操作可能产生的错误和误差,另外GPU核心四周有点胶固定,这样可以进一步减少由PCB变形导致的脱焊情况发生。

背后我们可以清楚的看见PCIE到核心的走线方向。

754mm2的巨大TU102,是历史上最大的消费级电子芯片。芯片的具体型号是TU102-300A-K1-A1,传说后面还有不带A的TU102-300-K1-A1,会缩减频率和超频性能。

11颗镁光的GDDR6组成的352bit显存系统,编号为D9WCW,运行在1750MHz频率,等效14000MHz,显存由NVIDIA打包给AIB,所有卡都一样,体质好的可以到1.6GHz,但这个如果不特挑的话就是RPWT。

ROG STRIX RTX 2080 TI GAMING OC供电为16的超合金供电,而Founder Edition供电为13相,更高的供电规模还是可以带来更好的超频空间和更低的供电温度。

内存供电和NVLink桥部分。

这部分大部分电路是自有的风扇和灯光控制电路, ITE 8915FN是风扇控制芯片,右边红色的就是前面提及的4Pin 12V AURA接口,上面有2个风扇控制接口是空焊,但在RTX2080上是全的,有点奇怪。

背板部分败家之眼的均光板,继续维持之前STRIX GTX1080TI GAMING的设计。

电压和频率稳定性

之前Pascal显卡的频率控制机制是温度+TDP双重墙对GPU频率进行限制,但这样的机制在新一代RTX显卡上发生了改变,频率更多的是和电压联动。NVIDIA在这代引入了名为OC Scanner的自动超频工具,目前这个模块已经被最新版的MSI AFTERBUNNER 4.6和EVGA PRECISION X1支持。OC Scanner会分阶段用800-1200mV不同电压测试显卡可以稳定工作的频率曲线,在SCAN完成之后,会给你一个操盘的电压和频率对应曲线表。

这张ROG STRIX RTX 2080 TI GAMING OC频率超频可以有181MHz,最高频率超过2100MHz。整体而言经过我经受的多张GeForce RTX 2080 Ti,整体体质基本和GTX1080TI差不多,或者略差。之前GTX1080TI平均体质是2080+- 17MHz的一个Step,但GeForce RTX 2080 Ti想要达到2050都很困难,究竟芯片规模大了60%。

当然原有的温度和TDP限制依然存在,默认的温度墙依然是84度,超过84度还是会降到1350MHz的Base Clock。TDP Limit也存在不同卡BIOS限制不同,如ROG Strix的上限是125%,而微星的暗黑龙爵和魔龙仅有110%。

上图是本次测试的各个GeForce RTX 2080 Ti的频率和功耗限制参数对比,虽然NVIDIA计划的各家非公频率应该要低于FE以突显FE的高贵,但实际各家非公的频率基本都和公版持平甚至更高。

我们用3Dmark timespy的压力测试进行测试,运行10次,用GPU-Z Log监控其频率、温度、电压和相对功率,以1秒为间隔进行更新。

在持续运行3D负载的时候,频率会和负载联动,负载越高频率越低,在重置场景的时候频率又会恢复到高频。ROG Strix的默认频率比较低,但在超频之后两者的频率曲线基本就趋于一致。

电压和频率是同步降低,需要注意的是使用OC SCANNER超频以后电压其实是同比降低了的。超频不是应该加压么?按照通常道理。前面OC SCANNER部分就有说明,可以让相同电压跑更高频率,反过来想,那也是运行相同频率仅仅需要更低的电压。我们这里的STRIX的默认和超频电压都要低于魔龙。

再将TDP拉到最高后,ROG Strix的125%运行功耗要高于魔龙,很明显110%的功耗限制了魔龙性能的发挥。而公版虽然TDP上限有123%,但实际稳定性差,相比ROG STRIX RTX 2080 TI GAMING OC有明显差距。

ROG STRIX RTX 2080 TI GAMING OC的待机温度相比魔龙有明显优势,这是得益于更大的热管和散热片规模,满载温度两者大概是68度和73度,也有5度的差距,除了散热器效能方面的差别,STRIX的电压更低也有很大影响。在超频手动增加10%电压情况,温度也会到75度的水平。另外Founder Edition我到手比较晚,测试环境温度要低5度以上,因此温度对比测试部分我就没有加入Founder Edition。

我们使用Testo 869热成像仪对ROG STRIX RTX 2080 TI GAMING OC的待机和满载进行测量,在待机风扇停转情况,其背板温度为42度,甚至低于旁边SSD但散热片,而满载背板的温度也仅为67.5度。

具体的手动极限超频我这里就不想具体叙述,因为除非厂商特挑,基本就是RPWT。新的超频机制提升频率反而会掉压,所以手工提高核心电压来保证稳定性就变得更为重要。

AI加持的DLSS

DLSS的全称是DEEP LEARNING SUPER-SAMPLING,深度学习超采样。深度学习听上去很高大上,但实际距离我们的生活并不遥远,大家如果用华为、iPhone或者其他新款手机拍照时候就会不知不觉的用上,相机程序会对当前场景进行判断,识别场景类型,并对拍摄成像进行优化,这个过程就需要用到深度学习。在服务器段,首先会使用大量的图片对神经 络进行训练,通过自我学习比较提升识别能力,再在手机上通过NPU或者GPU/CPU对 神经 络进行遍历,来达成优化目的。

DLSS的实现也差不多,首先在NVIDIA的服务器上针对特定游戏进行渲染,输出4K分辨率的画面,再渲染低分辨率的画面,通过算法将低分辨率画面拉伸到4K,通过脑补补齐细节,将输出的画面同原生的4K画面比较,并持续改进。DLSS大部分工作是在NVIDIA服务器上实现的,在客户端的主机运行游戏的时候,会利用RTX显卡的Tensor Core执行深度学习需要用RT Core执行500亿次FP16操作,将低分辨率画面拉伸到4K,这个就是DLSS实现方式的通俗说明。

我们使用FF15 Benchmark进行测试,TAA的得分为4300分,DLSS得分为5972分,DLSS的性能要高38.8%,接近40%。

上图为4X TAA,下图为DLSS。TAA究竟是经过AA处理,在车身的AA处理效果上还是更好,但TAA由于算法原因,纹理比较模糊,而DLSS的纹理清晰度更好,特别是后部的石头和植被纹理特别明显。具体的动态对比大图可见:
https://codepen.io/cloudliu/full/JmEyqg/

DLSS的实用意义可以从两个层面来理解,第一个是对于4K显示器用户,可以用更低分辨率的运算量来实现4K分辨率的效果,第二个是对于非4K显示器用户,可以将现有画面通过超采样方法渲染4K画面,再通过DSR缩小到低分辨率输出,这样DLSS的收益不仅仅是AA,还有纹理分辨率的提升,这样画面提升立竿见影。

这个过程需要针对特定游戏进行学习,因此并不具有泛用性,目前能够支持的仅有最终幻想15 Benchmark,还有UE4 潜入者的Techdemo。虽然后续NVIDIA画了个饼,但后续支援情况基本不是技术问题,而是和开发商的市场合作和资源投入问题。

你到底需要什么显卡?

应该选择什么显卡,我觉得除了取决于你的钱包以外,更应该取决于你玩什么游戏。如果你和我一样是一个终极游戏画面党,热衷于最新的AAA游戏的话,那你选择什么显卡就更多的取决于你的显示器。显示器的情况可以分成以下的几种情况:

普通的1080P 60Hz显示器,

1080P 144电竞显示器

2K 60Hz显示器

2K 144Hz电竞显示器

4K6 0Hz普通显示器

4K 144Hz土豪显示器 如ROG PG27UQ

不同的显示器有不同的性能需求,对于普通的60Hz显示器min FPS>60就可以满足需求,更高的FPS并不能获得明显的收益。

我们测试游戏选择了综合人气度最高的绝地求生,还有最为新近的三个3A游戏:古墓丽影暗影,飞驰竞速地平线4和刺客信条奥德赛。这几个游戏用户关注度高,同时技术上也有足够的代表性。我们使用
GTX1080TI/RTX2080/RTX2080TI测试1080P/1440P和2160P的最高画质。古墓丽影暗影,飞驰竞速地平线4和刺客信条奥德赛我们使用游戏自带Benchmark进行测试,而绝地求生我们使用Savage地图进行一盘20分钟的四排游戏,然后进行回放,使用Fraps记录前10分钟的性能。

上表红色是不能满足60FPS最低性能需求,不可用,绿色是可以接近或者满足144Hz电竞显示器的性能需求,而黑色是可以满足60Hz普通显示器但不能满足144Hz电竞显示器的性能需求。GeForce RTX 2080在不考虑RTX和DLSS的情况下,性能基本和非公高频版GTX1080TI性能基本一致,并没什么差别,性能基本可以满足1080P 144Hz的性能需求,也完全可以搞定2K 60FPS。如果你是1080P或者2K普通显示器,2080就足够了。有人说GeForce RTX 2080不如GeForce GTX 1080 Ti的一点理由就是8GB VRAM不够,但从上面的测试看实际显存占用并没有想象的那么夸张,4K最高画质也都不到8GB,并不足以成为瓶颈。当然,也不是说没有破8GB的游戏,如最近几代的使命召唤,看门狗2、幽灵行动荒野,但这几个基本都是动视和土豆厂无脑滥用高分辨率贴图的类型,游戏引擎的效能本身存在问题。

如果想要完全征服PG27UQ这样的4K 144 HDR怪兽,2080TI SLI还是必不可少

GeForce RTX 2080 Ti的意义在于满足2K144或者4K60,但距离这个目标还是有一定的距离,古墓丽影性能不到100FPS,距离144还有段距离,而4K分辨率除了地平线4,古墓和吃鸡也都败下阵来,当然如果4K这样容易2080TI单卡搞定,那2080TI SLI谁买,即使2080TI SLI搞定了4K60,你还可以买ROG PG27UQ,还有4K HDR 144Hz等着你。从这点看NVIDIA是很擅长发掘用户需求,让用户有理由买新产品,而不像某牙膏厂完全不能触动用户。但按照这个速度继续发展,下代卡吃了7nm的红利,再做个大核心,现有画面水平的游戏被单卡轻松搞定还是有很大可能性。这个时候NVIDIA就需要给用户带来新的追求,这就是RTX,让用户重新从1080P 60FPS的目标重新追求。

不测RTX都是耍流氓

RTX的原理特性方面我就不过多复述,如果不明白可以去看看之前Edison的文章:追光者 NVIDIA GeForce RTX 2080 Ti图灵架构浅析
https://www.evolife.cn/computer/188562.html

之前其他媒体的RTX显卡评测都没有提及RTX性能,我觉得这和耍流氓无异。黄仁勋在发布会上信誓旦旦的宣布有XX款游戏支持RTX,但这个只是画饼,现在能够提供演示视频的都是寥寥无几,仅仅只有战地V、古墓丽影暗影、控制和地铁,还有Gaijin的荣誉入伍,而其他的连宣传视频都拿不出这说明八字还没一瞥。但这并不意味着RTX没有东西可测,其实NVIDIA在NDA解禁之前就提供了星球大战的Reflections Demo。当然跑这个techdemo并非一帆风顺,首先它需要1803系统,之前的1709不行,最新的秋季更新1809也不行,我为此还专门为此下载1803安装了个专门的RTX系统,此外运行之前还需要开启系统的开发者模式。

这个Demo是由NVIDIA和卢卡斯旗下的工业光魔共同开发,具体的RTX画面表现我觉得很难用静止的图片来传达,因此献上了使用GeForce RTX 2080 Ti录制的视频来展现光线追踪的惊艳。

这里我来说说具体性能,这个Benchmark存在Bug,虽然说明有1080p分辨率,但实际运行是2K分辨率,而2K分辨率实际是1080p DLSS上去的,因此我们测试2K分辨率DLSS的性能,这个Demo默认有24FPS的限制,需要按F3 unlock。由于这个Techdemo是DX12,Fraps并不能支持,我们使用MSI Afterburnner的Benchmark进行测试。GeForce RTX 2080 Ti的平均FPS接近60FPS,为58FPS,但最低FPS为46.4 FPS,并不能说流畅,而GeForce RTX 2080的性能为44.1FPS,性能大概是GeForce RTX 2080 Ti的76%。RTX 2080和RTX 2080TI的RTX-OPS (Tera-OPS)分别是60/78,其性能比例也大概是76.9/100,两者之间实际测试性能差距十分符合预期。

虽然这个techdemo惊艳,惊艳到GeForce RTX 2080 Ti都不能完美运行,但并不完全是理想中的光纤追踪,整体构建还是以传统的光栅化为主,RTX主要是用来实现反射和折射,依然使用了AO这样的传统技术。

实际的游戏更加如此,虽然添加RTX,但也是十分表层的特效,如古墓丽影暗影只是用来绘制光线追踪的阴影,而战地V的RTX只是用来生成反射,基础的光照系统依然还是传统的光栅化,RTX仅仅是锦上添花,视觉上并不如星球大战的Techdemo那样惊艳。但即使如此,按照之前Gamecom发布会现场展示的古墓丽影和后继youtube职业主播对战地V的反馈来看,这样表层的RTX依然需要巨量的系统资源,大大拖累了整体性能。

对于性能消耗《控制》的开发商Remedy做了详尽的解释,RTX 2080TI使用Northlight引擎在1080P分辨率下开启RTX渲染一个布置有家具大理石地面的房间,桢生成时间平均要延长9.2mm,其中2.3ms是阴影计算,4.4ms是反射计算,2.5mm是全局光照降噪。但Remedy并没有说明具体性能,我们可以做个简单计算,如果不开启RTX 100FPS,就是每帧10ms,开启RTX就是19.2ms,这就等于是52FPS,性能基本由一半的拖累,如果不开启RTX是60FPS,那每帧16.667ms,加上RTX的9.2ms就是25.87ms,那就等效于38.66FPS。如果RTX ON的单帧渲染时间固定,传统RTX OFF的性能越高,RTX ON的性能损失比例就越大,而传统方式FPS越低开启RTX的性能损失就越承受不起。Remedy表示可以进一步优化RTX的效能,但RTX的系统消耗我们需要个正确的认识。

Unreal Engine 4 SDK已经提供了对RTX的支持

虽然Windows 10最近的秋季更新在系统底层增加了对DXR的支持,扫清了系统层面的障碍,但这并不意味着RTX的发展会一帆风顺。其现在遇到的问题和当年PhysX GPU加速遇到的情况类似:性能影响大,仅仅是表层特效对画面改善不大,支持硬件平台少,特别是被家用机平台拖累。在前几年的几代RTX卡上,我们并不能指望能够发生太大的根本性改变,一方面是RTX性能不能满

声明:本站部分文章内容及图片转载于互联 、内容不代表本站观点,如有内容涉及侵权,请您立即联系本站处理,非常感谢!

(0)
上一篇 2018年10月12日
下一篇 2018年10月12日

相关推荐