首页 > 手机 > 锤子 > gtx2080,我买了一块gtx2080显卡请问能干嘛有什么需要这的游戏吗 搜

gtx2080,我买了一块gtx2080显卡请问能干嘛有什么需要这的游戏吗 搜

来源:整理 时间:2022-06-08 02:12:40 编辑:手机知识 手机版

1,我买了一块gtx2080显卡请问能干嘛有什么需要这的游戏吗 搜

2080可以说市面上高端的显卡了。可以说目前的软件和游戏没有这块显卡带不起来的。你像做视频渲染也挺好,或者说打游戏吃鸡可以多开。
显卡自然是做显卡的公用再看看别人怎么说的。
就是别人玩一个账号都卡,你多开好几个吃鸡都不卡的那种

我买了一块gtx2080显卡请问能干嘛有什么需要这的游戏吗  搜

2,gtx2080mq什么意思

GTX2080TI是台式显卡,GTX2080MQ是移动版(笔记本电脑用)。

gtx2080mq什么意思

3,RTX20805X99是否是目前性价比最高的显卡

就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。虽说显卡也是一分钱一分货,但是一般来说,显卡最具性价比的往往是在1000-2000元档次之间,也就是说这个价位的显卡往往能做到一元钱所买到的最高性能,像GTX1060和RX580都属于这个价位性价比较高的显卡,包括从数百元到5000元之间可能都是这两款显卡性价比最高,也就是俗话说的“甜点”显卡。你所说的RTX2080属于不折不扣的高端显卡,到了这个档次已经谈不上什么性价比,因为2080的性能也就是1060的两倍以上,但是价格或许能达到三倍,所以只适合追求极限性能、不差钱的用户选购,下面我们就来看看RTX2080在高端显卡中的性价比。RTX2080刚上市的时候高达6500元,这个价格是相当偏高的,毕竟2080的实际图形性能和1080ti旗鼓相当,但是1080ti只卖5500元左右,因为2080拥有全新的光线追踪技术和DLSS人工智能抗锯齿所以才贵出了1000元溢价,问题在于真正使用这些新技术的游戏太少了,因此RTX2080性价比只能说很低。不过NVIDIA也意识到了情况,两个多月下来rtx2080的销量也不怎么样,不降价是不行了,于是2080目前的价格普遍回落了不少,来到了5500-6000元,达到了退市前1080ti的价格,这样性价比就比以前高多了,至少大家已经没有必要再去选择上一代显卡了。但是好景不长,随后的RTX2070性能比2080若不了多少(最多20%),但是价格却便宜了近2000元,所以在2070面前,2080的性价比实在太低了,总之RTX2080及更高等级的显卡目前来看并不值得选购。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。虽说显卡也是一分钱一分货,但是一般来说,显卡最具性价比的往往是在1000-2000元档次之间,也就是说这个价位的显卡往往能做到一元钱所买到的最高性能,像GTX1060和RX580都属于这个价位性价比较高的显卡,包括从数百元到5000元之间可能都是这两款显卡性价比最高,也就是俗话说的“甜点”显卡。你所说的RTX2080属于不折不扣的高端显卡,到了这个档次已经谈不上什么性价比,因为2080的性能也就是1060的两倍以上,但是价格或许能达到三倍,所以只适合追求极限性能、不差钱的用户选购,下面我们就来看看RTX2080在高端显卡中的性价比。RTX2080刚上市的时候高达6500元,这个价格是相当偏高的,毕竟2080的实际图形性能和1080ti旗鼓相当,但是1080ti只卖5500元左右,因为2080拥有全新的光线追踪技术和DLSS人工智能抗锯齿所以才贵出了1000元溢价,问题在于真正使用这些新技术的游戏太少了,因此RTX2080性价比只能说很低。不过NVIDIA也意识到了情况,两个多月下来rtx2080的销量也不怎么样,不降价是不行了,于是2080目前的价格普遍回落了不少,来到了5500-6000元,达到了退市前1080ti的价格,这样性价比就比以前高多了,至少大家已经没有必要再去选择上一代显卡了。但是好景不长,随后的RTX2070性能比2080若不了多少(最多20%),但是价格却便宜了近2000元,所以在2070面前,2080的性价比实在太低了,总之RTX2080及更高等级的显卡目前来看并不值得选购。现在来看的话还是gtx1080性价比更高,3500元左右的gtx1080基本能相当于RTX2080的70%,而rtx2080的价格接近6000元,只是多了个还远远没有普及的光线追踪和dlss功能,性价比谁高一目了然。如果说极致性能的话,取两个极端,在开启光线追踪特效的情况下,rtx2080比1080能强出好几倍,两者完全不是一个级别,如果同时开启DLSS功能的话,那差的可能就更远了,但尴尬的是目前支持光线追踪的游戏只有《战地5》,支持DLSS的游戏只有《最终幻想15》,在绝大部分游戏中,rtx2080仅仅比1080强30%多而已,所以如果支持光线追踪和dlss的游戏不能在短时间内迅速增加的话,那2080的性价比是很低的,极致性能也几乎是一个摆设。虽说这么看gtx1080的性价比更高,但是面对现在的rtx2070性价比也不高了,因为2070的性能和价格与1080基本重叠,另外还加了新功能和新特效,在这种情况下肯定就是rtx2070更值得买了,买新不买旧,2070凭借更多的计算单元,在未来的新游戏中有望比1080发挥的更好,再说1080也是上市两年半的“老显卡”了,如今还卖到3000多元实在是不值得买了。所以如果你的预算较高,对性能和画质有较高要求,那就选rtx2080吧,至少在《战地5》中它能在1080P高画质+光追下能跑到60帧以上,rtx2070尽管性价比更高,但是在如今的光追特效下表现的性能还是差一些意思,但是无论如何gtx1080就不要买了。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。虽说显卡也是一分钱一分货,但是一般来说,显卡最具性价比的往往是在1000-2000元档次之间,也就是说这个价位的显卡往往能做到一元钱所买到的最高性能,像GTX1060和RX580都属于这个价位性价比较高的显卡,包括从数百元到5000元之间可能都是这两款显卡性价比最高,也就是俗话说的“甜点”显卡。你所说的RTX2080属于不折不扣的高端显卡,到了这个档次已经谈不上什么性价比,因为2080的性能也就是1060的两倍以上,但是价格或许能达到三倍,所以只适合追求极限性能、不差钱的用户选购,下面我们就来看看RTX2080在高端显卡中的性价比。RTX2080刚上市的时候高达6500元,这个价格是相当偏高的,毕竟2080的实际图形性能和1080ti旗鼓相当,但是1080ti只卖5500元左右,因为2080拥有全新的光线追踪技术和DLSS人工智能抗锯齿所以才贵出了1000元溢价,问题在于真正使用这些新技术的游戏太少了,因此RTX2080性价比只能说很低。不过NVIDIA也意识到了情况,两个多月下来rtx2080的销量也不怎么样,不降价是不行了,于是2080目前的价格普遍回落了不少,来到了5500-6000元,达到了退市前1080ti的价格,这样性价比就比以前高多了,至少大家已经没有必要再去选择上一代显卡了。但是好景不长,随后的RTX2070性能比2080若不了多少(最多20%),但是价格却便宜了近2000元,所以在2070面前,2080的性价比实在太低了,总之RTX2080及更高等级的显卡目前来看并不值得选购。现在来看的话还是gtx1080性价比更高,3500元左右的gtx1080基本能相当于RTX2080的70%,而rtx2080的价格接近6000元,只是多了个还远远没有普及的光线追踪和dlss功能,性价比谁高一目了然。如果说极致性能的话,取两个极端,在开启光线追踪特效的情况下,rtx2080比1080能强出好几倍,两者完全不是一个级别,如果同时开启DLSS功能的话,那差的可能就更远了,但尴尬的是目前支持光线追踪的游戏只有《战地5》,支持DLSS的游戏只有《最终幻想15》,在绝大部分游戏中,rtx2080仅仅比1080强30%多而已,所以如果支持光线追踪和dlss的游戏不能在短时间内迅速增加的话,那2080的性价比是很低的,极致性能也几乎是一个摆设。虽说这么看gtx1080的性价比更高,但是面对现在的rtx2070性价比也不高了,因为2070的性能和价格与1080基本重叠,另外还加了新功能和新特效,在这种情况下肯定就是rtx2070更值得买了,买新不买旧,2070凭借更多的计算单元,在未来的新游戏中有望比1080发挥的更好,再说1080也是上市两年半的“老显卡”了,如今还卖到3000多元实在是不值得买了。所以如果你的预算较高,对性能和画质有较高要求,那就选rtx2080吧,至少在《战地5》中它能在1080P高画质+光追下能跑到60帧以上,rtx2070尽管性价比更高,但是在如今的光追特效下表现的性能还是差一些意思,但是无论如何gtx1080就不要买了。2080ti显卡已经发布了一年半的时间了,而现在这款显卡的价格仍然非常高,即使是较为便宜的丐版价格也至少在7000元以上,显然一直都不是普通游戏玩家能消费得起的,而之所以2080ti保持这么高的价格,原因主要有以下几点:1、2080ti作为消费级最强独显,无论是跑分还是游戏性能都是目前最强的显卡之一,尽管往上还有RTX泰坦等巨无霸,但是那玩意绝对不是给一般人用的,再说玩游戏性价比也不如2080ti。总之,你如果想玩4K最高画质60帧的游戏,目前万元以下也就只有2080ti可以做到,既然没有对手和竞品,那样2080ti的溢价自然就高了。2、2080ti作为图灵架构的顶级显卡,其GPU核心TU102核心面积可达700多平方毫米,对于GPU芯片来说,面积越大成本越高,良品率和产能也就更差,所以从成本方面考虑,2080ti的产量就不会太大,相应的每块卡成本也就更高了。3、2080ti不仅仅是性能强大的游戏显卡,其配备的光线追踪单元和AI计算单元还可以在专业软件钟进行加速,性能比以往的游戏显卡快很多,所以对于创作者而言,2080ti还可以是生产力工具,这个附加值就比较大了。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。虽说显卡也是一分钱一分货,但是一般来说,显卡最具性价比的往往是在1000-2000元档次之间,也就是说这个价位的显卡往往能做到一元钱所买到的最高性能,像GTX1060和RX580都属于这个价位性价比较高的显卡,包括从数百元到5000元之间可能都是这两款显卡性价比最高,也就是俗话说的“甜点”显卡。你所说的RTX2080属于不折不扣的高端显卡,到了这个档次已经谈不上什么性价比,因为2080的性能也就是1060的两倍以上,但是价格或许能达到三倍,所以只适合追求极限性能、不差钱的用户选购,下面我们就来看看RTX2080在高端显卡中的性价比。RTX2080刚上市的时候高达6500元,这个价格是相当偏高的,毕竟2080的实际图形性能和1080ti旗鼓相当,但是1080ti只卖5500元左右,因为2080拥有全新的光线追踪技术和DLSS人工智能抗锯齿所以才贵出了1000元溢价,问题在于真正使用这些新技术的游戏太少了,因此RTX2080性价比只能说很低。不过NVIDIA也意识到了情况,两个多月下来rtx2080的销量也不怎么样,不降价是不行了,于是2080目前的价格普遍回落了不少,来到了5500-6000元,达到了退市前1080ti的价格,这样性价比就比以前高多了,至少大家已经没有必要再去选择上一代显卡了。但是好景不长,随后的RTX2070性能比2080若不了多少(最多20%),但是价格却便宜了近2000元,所以在2070面前,2080的性价比实在太低了,总之RTX2080及更高等级的显卡目前来看并不值得选购。现在来看的话还是gtx1080性价比更高,3500元左右的gtx1080基本能相当于RTX2080的70%,而rtx2080的价格接近6000元,只是多了个还远远没有普及的光线追踪和dlss功能,性价比谁高一目了然。如果说极致性能的话,取两个极端,在开启光线追踪特效的情况下,rtx2080比1080能强出好几倍,两者完全不是一个级别,如果同时开启DLSS功能的话,那差的可能就更远了,但尴尬的是目前支持光线追踪的游戏只有《战地5》,支持DLSS的游戏只有《最终幻想15》,在绝大部分游戏中,rtx2080仅仅比1080强30%多而已,所以如果支持光线追踪和dlss的游戏不能在短时间内迅速增加的话,那2080的性价比是很低的,极致性能也几乎是一个摆设。虽说这么看gtx1080的性价比更高,但是面对现在的rtx2070性价比也不高了,因为2070的性能和价格与1080基本重叠,另外还加了新功能和新特效,在这种情况下肯定就是rtx2070更值得买了,买新不买旧,2070凭借更多的计算单元,在未来的新游戏中有望比1080发挥的更好,再说1080也是上市两年半的“老显卡”了,如今还卖到3000多元实在是不值得买了。所以如果你的预算较高,对性能和画质有较高要求,那就选rtx2080吧,至少在《战地5》中它能在1080P高画质+光追下能跑到60帧以上,rtx2070尽管性价比更高,但是在如今的光追特效下表现的性能还是差一些意思,但是无论如何gtx1080就不要买了。2080ti显卡已经发布了一年半的时间了,而现在这款显卡的价格仍然非常高,即使是较为便宜的丐版价格也至少在7000元以上,显然一直都不是普通游戏玩家能消费得起的,而之所以2080ti保持这么高的价格,原因主要有以下几点:1、2080ti作为消费级最强独显,无论是跑分还是游戏性能都是目前最强的显卡之一,尽管往上还有RTX泰坦等巨无霸,但是那玩意绝对不是给一般人用的,再说玩游戏性价比也不如2080ti。总之,你如果想玩4K最高画质60帧的游戏,目前万元以下也就只有2080ti可以做到,既然没有对手和竞品,那样2080ti的溢价自然就高了。2、2080ti作为图灵架构的顶级显卡,其GPU核心TU102核心面积可达700多平方毫米,对于GPU芯片来说,面积越大成本越高,良品率和产能也就更差,所以从成本方面考虑,2080ti的产量就不会太大,相应的每块卡成本也就更高了。3、2080ti不仅仅是性能强大的游戏显卡,其配备的光线追踪单元和AI计算单元还可以在专业软件钟进行加速,性能比以往的游戏显卡快很多,所以对于创作者而言,2080ti还可以是生产力工具,这个附加值就比较大了。我用的就是RTX2080,虽说我在使用2K分辨率显示器,并没有4K显示器,但是根据我玩的各种大型单机游戏来说,RTX2080显卡最适合的环境还是2K分辨率+高画质,市面上绝大部分游戏2080显卡在这样的设置下都可以驾驭60帧以上,达到绝对流畅的水平,如果想继续提高画质还可以开启一点抗锯齿也没问题,只有像地铁离去这样极少数支持光线追踪而且配置要求很高的游戏,才可能需要稍微降低画质来提高性能。但是考虑到4K显示器像素数量远远高于2K显示器,所以按照我的使用来看,2080显卡只能说勉强应对4K高画质,很多游戏在4K高画质下已经难以维持60帧平均水平了,更多的还是在50帧左右徘徊,但是如果你对最高画质和60帧不是那么敏感的话,降低一档的画质,或者是忍受50帧左右的速度基本也可以达到流畅运行的目的,可以说RTX2080显卡是4K高画质入门卡。而2080ti虽说和2080只差一个“Ti”后缀,但是两者性能差距还是很大的,2080ti流处理器比2080多了1000多个,显存位宽达到352bit,容量也从2080的8G增加到11G,整体性能比2080显卡高出大约30%,尤其是在4K分辨率下优势·更明显,很多游戏都可以达到60帧以上。所以如果你的预算充足,电源和散热都跟得上的话,2080ti才是4K高画质游戏的最佳显卡,而且未来很长一段时间的游戏也基本能满足需求。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。
就像刚刚过去的苹果发布会一样,NVIDIA每一代的新旗舰显卡的发布在玩家心目中也完全可以被当做一场“科技春晚”,只不过最近的“春晚”周期横跨了2016-2018三个年头,间隔长达两年零三个月。或许也只有这样一个破纪录的更新周期才能消化2016年5月发布会上Pascal架构产品那令人震惊的性能跨越。这也让我们看到老黄在2018年新品发布会上拿出新款“核弹”时有了更多的期待。按照惯例,笔者在第一时间拿到了这两款国内外玩家翘首以盼的新显卡——”GeForce RTX 2080Ti和GeForce RTX 2080“。规格参数一览以TU102和GP102核心为例,从规格上来看,CUDA核心的数量增长并不是非常夸张,相对而言最大的变化就是增加了用于光线追踪的RT Cores 和深度学习用的Tensor Cores。这也是这一代显卡最重量级的升级。新成员的加入也让图灵架构的显卡核心面积大幅度增加。TU102相比GP102在面积上就增加了60%。相应的频率也有所增加,但幅度相对较小。TU102核心透视实拍TU102的晶体管数量达到了186亿,而前一代GTX 1080Ti所使用的GP102则只有118亿,增加了57%。这颗GPU核心也顺理成章成为了目前规模最大的游戏显卡核心。巨大的规模带来的副作用就是潜在的功耗和发热量的增加。相比两年前Pascal时代28nm到14/16nm工艺的巨大工艺红利来说,这一代从16nm 到12nm 的提升幅度就没那么夸张,一定意义上来说,台积电以及三星的12nm工艺更多的是在之前14/16nm工艺基础上的小改成果。所以虽然有一定的效果,但对于NVIDIA来说并不会有太多频率和发热控制上的显著进步。RTX6000采用的完整TU102核心拥有72个SM单元,而很不幸的是RTX2080Ti阉割掉了4个SM单元,仅有68组。相应的内存控制器也阉割掉了一组,剩下11个,整体的策略和GTX 1080Ti时期对GP102的“刀法”完全一致。每一组SM单元中都配备了一个RT Core,以及两两成对的TENSOR Cores。可以看出,事实上这一代FP32和INT32单元所占据的比例其实相对不那么高。可以说这一代是近几年来,在底层变化最大的一代产品。如果细化到Tensor Core本身,图灵架构的Tensor Core相对于Pascal上搭载的相同结构的最大变化就是将处理方式从2D平面升级到了3D,这意味着以数量级计的效率提升。GDRR6显存:求稳之举出乎很多人意料的是NVIDIA在这一代产品中并没有使用大家所期待的性能强大的HBM2显存。继续使用了最新的DDR显存,也就是GDDR6显存。架构上没有多少变化的GDDR6是基于前一代产品的继续优化产物,通过提升频率到7000MHz(等效14000MHz)将带宽提升到了14Gbps的水平,同时降低了40%的串扰。虽然性能仍然不可能与HBM相比,但胜在成本低,良率高,可以持续大规模供货,不至于出现被显存拖累的窘境。前文我们说到,RT Cores占用了很大的核心面积,而这些单元并不会提升传统的光栅渲染效能。他们的用途要比单独提升游戏的FPS值更有价值。基于这些单元,NVIDIA在这一代显卡产品中加入了酝酿多年的“实时光线追踪”(RTX)技术。这也是为什么这一代显卡产品的命名从“GTX”变成“RTX”的原因。光线追踪与实时光线追踪传统的光栅化渲染其实将一个3D图形的几何信息转变为一个个栅格组成的2D图像的过程,可以理解为在这个3D图形的每个点都包含有颜色、深度以及纹理数据,经过一系列计算变换后,将其转换为2D图像的像素,进而呈现在显示设备上。更多的是一种基于作者认为“这里应该有这个”的创作性质的图形渲染方式,一定以上来说就是已知结果并把结果写出来,而并不能知道这个结果是正确的还是错误的。而光线追踪技术则是通过通过光源位置、射线、和物体关系进行真实的光线模拟运算,来得出这里应该有哪些光线,有怎样的反射关系。这样得出的游戏画面的光影效果也就更加真实。光线追踪在以往游戏中的应用都是在游戏的制作中提前进行运算,将得出的结果写到游戏程序中,显卡所做的也仅仅是将已经写好的“台词”念出来。这样的做法意味着无法实现大量且精细的光线追踪,那将意味着海量的计算过程和无比巨大的供调用的结果数据。而“实时光线追踪”就是将光线追踪的运算过程拿到游戏过程中来,实时地计算出光线应该投影和反射形成的效果。如果性能足够强大,不仅可以在同样的场景中做到更高数量级的光线追踪效果,游戏画面可以得到显著的提高,还能大幅度降低游戏开发者的运算量。如果把图形渲染比喻成一场数学考试,那么光栅化渲染基本上约等于不会做题目所有的选项都靠“三短一长选最长”的直觉来回答;而“光线追踪”则是将尽可能多的题目死记硬背,靠题海战术来完成答卷;而“实时光线追踪”(RTX)技术则是将做题的方式学会,通过聪明的大脑来运算解决遇到的每一个题目。这样毫无疑问,最后一种方式所得到的分数必然要远胜前两者。落实到游戏的话,目前支持光线追踪的游戏并不多,近期《古墓丽影:暗影》虽然已经承诺支持,但并未在首发版本中加入。而另一款NVIDIA演示的RTX游戏《战地V》也延期上市。所以目前还不能玩到支持实时光线追踪技术的游戏。但是相信不久的将来,在NVIDIA的推动下,会有更多的支持RTX技术的游戏来到我们面前。靠“脑补”的DLSS技术科隆发布会上占据时长同样多的还有全新的基于AI人工智能技术的“深度学习超级采样”(DLSS)技术。这也是图灵GPU核心中的那些Tensor Core的用途所在。原理是这样的,NVIDIA 使用自己的超级计算机以64 倍于标准分辨率的分辨率运行游戏,绘制出极多的超高画质的画面,再用一定的方式挑选出一些细分画面作为完美渲染的“标准答案”。然后通过DLSS深度学习,将标准分辨率的画面和这些画面进行对比,生成一张最优画面,然后再与全尺寸(64倍超采样)进行对比,得出差别,然后将这些差别反推到神经网络中,进行循环训练。在几轮之后就人工智能网络就可以学会如何将标准画面渲染到接近64倍分辨率原图的方法。这些学习结果定期通过软件更新提供给图灵GPU的显卡,通过Tensor Cores,就可以进行实时比对,将较低分辨率的画面“脑补”为正确的高分辨率画面,从而实现画面细节的提升。超采样也消灭了画面中可能存在的锯齿。最终的效果就是,要得出一个4K分辨率的高画质反锯齿画面,通过DLSS技术并不需要真的在4K分辨率下渲染画面,实际渲染一个低分辨率画面,通过DLSS技术即可达到需要的效果。这样不仅画质有所保证,还可以大幅度降低游戏的性能需求,游戏的运行效率将大幅度提升。虽然效率提升,但画质方面却并不会因为DLSS技术而受到损失,相反的,相比TAA(时间性反锯齿),DLSS技术大量的机器学习可以避免拖影和细节错位,从而获得更好的反锯齿效果。相比需要更深度技术基础的实时光线追踪而言,DLSS更加容易实现,所以很多现有的游戏很快就可以经过NVIDIA的运算后支持DLSS技术,运行效率,尤其是4K下的性能会显著提升。目前NVIDIA承诺的DLSS技术游戏包括《绝地求生》《古墓丽影:暗影》《剑侠情缘三》等众多我们熟悉的作品。不过由于需要硬件层面的支持,DLSS技术也是图灵架构GPU的专属功能。后续的基准测试中,我们会有针对DLSS技术的实测数据。3DMark首先是传统的3DMark测试:在基于DX11的Firestrike测试中,RTX 2080Ti显卡相对于GTX 1080Ti有着约20%的性能优势。而RTX 2080则相对于GTX 1080有着26-28%的性能提升,而相对于GTX 1080Ti有着5%左右的差距。而来到DX12测试中,RTX 2080Ti的性能优势大幅度扩大,相比GTX 1080Ti有着高达44%和43%的性能优势。反观RTX2080,则相对GTX 1080有着38%和51%的性能提升。Unigine Valley1.0Valley是一款常用的DX11图形性能测试工具,包含大量先进的画面技术。在手动开启最高画质并设定3840x2160分辨率开启8x反锯齿后,Valley的测试成绩如图所示,基本上与3DMark Firestrike的测试结果保持一致。RTX 2080Ti 20%左右的性能优势,并且RTX 2080的表现扔略逊于GTX 1080Ti。DLSS技术效能测试我们使用《最终幻想15》的DLSS Benchmark程序进行了开启和关闭DLSS技术的对比测试。分辨率为3840x2160。可以看到,在未开启DLSS的情况下,RTX 2080Ti相比GTX 1080Ti有25%左右的优势,而开启DLSS之后,RTX 2080Ti的得分提升了高达39%。相对于GTX 1080Ti的性能优势扩大到惊人的75%。甚至RTX 2080开启 DLSS之后的成绩也提升了38%,超过GTX 1080Ti 44%,相对于GTX 1080的优势更是毫无意外的达到了63.7%!由此可见,DLSS技术毫无疑问可以显著提升游戏的运行效能,不过这样的性能释放还需要游戏的支持才能解锁,让我们一起期待DLSS技术在游戏产业的普及吧。NVIDIA前段时间宣称新一代的图灵显卡可以完美征服4K分辨率的高画质大作,那么我们就挑选几款高画质大作进行一番4K游戏的测试。在实际游戏中,RTX2080Ti展现了新一代的旗舰的性能水准,相对于GTX 1080Ti的优势基本上在20-25%之间,而RTX 2080则波动较大,总体相比GTX 1080的提升幅度在30-40%,表现不错。可以看出,这一代显卡在现有非DLSS游戏中的提升没有上一代Pascal和Maxwell换代时的惊艳。表现基本上向上进步了一档,次旗舰RTX 2080战平前代旗舰GTX 1080Ti。但必须强调的是这都是在DLSS和RTX技术没有引入的情况下得出的结论,未来如果有足够多的DLSS游戏上市,我们还会再一次进行类似的测试,与此次的结论相比照,得出相应的最终结论。功耗测试我们使用FurMark进行压力测试,设定为2560x1440分辨率。通过NZXT电源自带的CAM软件捕捉最高功耗值。由于此时CPU为空载状态,CPU负载维持在20W以下。另外此时显卡的功耗数据仅代表PCI-E供电线所提供的功率,不包含PCI-E插槽的供电部分。如果计算CPU满载时约100W的功耗水平,那么RTX 2080Ti整机的峰值功耗将超过400W,那么一款500W额定功率并且转化率良好的电源是最低标准,如果考虑到一些冗余的话,官方给出的650W电源需求基本上是合理的。散热这一代公版显卡采用了有别于以往涡轮散热器的双风扇散热器,在TDP变化不大的情况下,满载烤机测试中的温度相比前代有着明显的降低,RTX 2080Ti Founders Edition满载仅78摄氏度的表现已经达到了之前一些GTX 1080Ti非公的水平。可以说公版显卡在这一代上基本上摘掉了散热不佳的帽子。评测总结:新一代的RTX系列显卡出乎我们意料地选择了对画质和人工智能进行革新和探索,而不是我们之前所期待的大幅度的理论性能提升。RTX 2080Ti相比GTX 1080Ti在DX11下20%左右在DX12下44%的理论性能提升也意味着NVIDIA在缺少强劲的对手情况下,更加重视新技术的支持和优化。这也体现在RTX和DLSS技术的实践上,DLSS技术的AI黑科技带来的提升令人震惊,另外,此次加入的RTX实时光线追踪技术带来了堪称革命性的画质提升,将游戏画面与电影和现实世界的差距缩小到了一个新的程度。回到值不值得买的话题上,这一代产品的主要卖点是新技术的支持,而不单纯是性能上的进步。这与以往“强不强”的讨论话题不一样,此次更多的是解决DLSS和RTX技术“有没有”的问题。从这个角度上来说,买新不买旧是绝对成立的。当然考虑这些之前你还要考虑到目前两款显卡分别达到5699元和8199元的市场指导价。NVIDIA旗下RTX系列显卡的三款先行产品GeForce RTX 2070/2080/2080 Ti现在已经全部上市,从性能上来说他们毫无疑问是王者级别的,相比上一代的同样定位的产品都有明显的性能提升,再加上RT Core对光线追踪方面的性能加成,显然它们都会成为PC游戏玩家的最爱,也为成为接下来这段时间里的游戏PC标配显卡。不过要发挥RTX系列显卡的全部性能,一款性能强劲的CPU肯定是少不了的,那么究竟要多强的CPU才能满足它们的需求呢?这个就是今天我们要讨论的问题。其实关于这个问题,如果单纯考虑“逼格”或者是所谓的“配置平衡”,目前恐怕就只有英特尔第九代酷睿处理器中的酷睿i9-9900K/i7-9700K这两款八核处理器,可以在身份上衬托得起这三款价格不菲的显卡,其中RTX 2080 Ti是必须搭配酷睿i9-9900K使用的,毕竟“最强游戏显卡”自然得搭配“最强游戏处理器”。但如果拿掉“逼格”或者“配置平衡”的因素,也就是说理智地想一想,这三款RTX系列显卡真的需要这样级别的CPU吗?昔日旗舰酷睿i7-8700K就这样被抛弃了吗?还在用酷睿i7-7700K的玩家就必须要整套平台进行升级吗?曾经被很多玩家追捧的酷睿i5-8600K就没资格用RTX系列显卡吗?显然要理智地回答这些问题的话,我们恐怕还得用数据来说说话,看看到底什么样的CPU可以满足RTX系列显卡的性能需求。测试平台:这次我们拿出了酷睿i7-8700K、酷睿i5-8600K、酷睿i3-8350K以及酷睿i7-7700K处理器来进行测试,主要是对比它们在搭配RTX 2080 Ti显卡的情况下,什么规格的CPU可以更好地发挥显卡的性能。前面三款第八代酷睿处理器我们将搭配华硕Strix Z370-F Gaming主板使用,酷睿i7-7700K则搭配微星Z270 XPOWER GAMING主板使用,两套平台均使用威刚耀龙D41 DDR4-3200 8GBx2双通道内存套装以及浦科特M8Se 512GB固态硬盘,电源为安钛克HCG Gold 850W,显卡则使用索泰RTX 2080Ti X-Gaming OC,这是一款超频版的RTX 2080 Ti显卡,也是首批上市的RTX 2080 Ti显卡之一。测试所选用的索泰RTX 2080Ti X-Gaming OC显卡至于为什么会没有酷睿i9-9900K和酷睿i7-9700K这两款处理器,这个问题我们会在最后总结处给大家回答,这里稍微透露下是与目前绝大部分PC游戏的需求有关系。3DMark性能测试首先我们来看看3DMark下的成绩,从数据来看酷睿i7-8700K显然是最好的,六核心十二线程并不是摆设,总分上相比另外三款处理器确实能拉开一些差距。但如果只看显卡成绩的话,其实这几个处理器所对应的显卡成绩都相差不大,换句话说他们对显卡性能的影响其实很小,甚至可以忽略不计,总分上的差异更多地是由于CPU自身的理论成绩引起的,并不是因为CPU限制了显卡性能的发挥。实际游戏性能对比而在1080P分辨率下的实际体验中,我们可以看到酷睿i7-8700K的综合表现是最好的,在各个游戏中的表现都是名列前茅,酷睿i5-8600K则紧随其后,酷睿i7-7700K与前两者的差距并不大,但部分游戏中的实际表现确实有落于下风的现象,至于酷睿i3-8350K则基本是垫底的,当然它相比另外三款处理器也就是数字上的差距,要说实际游戏体验的话影响其实很小,大体上感觉不出来的。至于4K分辨率下的游戏成绩我们这次就不放出了,因为经过我们的统计,高画质+4K分辨率的设定下,显卡所表现出来的性能瓶颈远大于处理器所表现出来的,以至于四者的性能表现高度接近,也就是说强如RTX 2080 Ti显卡,也依然是4K游戏下的明显短板,处理器的性能差距难以体现。总结:对于RTX系列显卡所需要的CPU,这里有“理智之选”、“合理之选”与“理想之选”首先我们来回答下为什么这次讨论中我们没有加入酷睿i9-9900K与酷睿i7-9700K,其实道理很简单,那就是这两款CPU根本无需讨论,它们的性能肯定是可以满足需求的,如果不讨论价格的话,那么无论是从“理智的数据分析”、“逼格”或者是“配置平衡”的角度来说,它们都是最佳选择,特别是酷睿i9-9900K,目前来说我找不到决定性的理由来说明其不适合搭配RTX 2080 Ti显卡,这也就是为什么我们没有把这两款处理器放到性能对比中的原因。酷睿i9-9900K是目前搭配RTX系列显卡的“理想之选”而从我们的处理器游戏性能对比测试则可以看出,就目前的PC游戏来说,要满足RTX系列显卡的需求,其实一颗四核心的处理器基本上就足够了,更高规格的处理器所带来的性能提升是有的,但是对游戏的实际体验所构成的影响很小,单纯从实用的角度考虑,目前还在使用酷睿i7-7700K的玩家,升级RTX 2080 Ti也是没有问题的。不过我们从更长远一点的角度来看,酷睿i7-7700K处理器的潜力显然是不及酷睿i7-8700K的,甚至比其酷睿i5-8600K都稍有不及,毕竟后者是物理六核心,多出两个物理核心所带来的运算能力可不是四个逻辑核心可以相提并论的。而且我们也确实可以看到,从数字上来说酷睿i7-8700K甚至是酷睿i5-8600K的表现都确实优于酷睿i7-7700K,虽然从实际体验上来说可能相差不大,但酷睿i7-7700K确实影响了RTX 2080 Ti显卡的性能发挥。至于四核心四线程酷睿i3-8350K处理器,得益于其较高的默认频率,在不少游戏中它的表现其实并不差,但是相比其他更高规格的CPU产品也确实存在一定的性能差距,显然就目前的状况来看,以酷睿i3-8350K为代表的四核心四线程处理器将越来越难以满足旗舰级显卡的需求。另外相比于不能超频的普通型号,我们也更倾向于带K后缀的可超频产品,毕竟对于现在以及未来一段时间里的游戏,提升频率依然是增强CPU游戏性能的有力手段。酷睿i5-8600K是搭配RTX系列显卡的“理智之选”因此在目前的情况来看,要搭配首发的三款RTX系列显卡使用,酷睿i5级别的六核心处理器应该算是基本要求了。而且如果理智考虑的话,你会发现这个级别的酷睿i5处理器往往只需要酷睿i7级别处理器70%的价格,就可以获得后者90%甚至更高的比例的性能,这放到游戏也就是相当数帧的差别,对游戏体验影响几乎可以忽略不计,因此就目前来说酷睿i5-8600K或许会是一个“理智之选”。而更高级别的酷睿i7-8700K虽然拥有着更高的性能表现,但价格上也确实是更高的,因此单纯从“理智”方面来说,它并不如酷睿i5-8600K;而单纯从“逼格”方面来说,它又不如酷睿i9-9900K听上去那么高端大气上档次,甚至连次旗舰都算不上,毕竟上面还有一个八核心酷睿i7-9700K;不过六核十二线程的设计倒是赋予了酷睿i7-8700K较大的灵活性,如果你要除了游戏以外还有创作上的需求,酷睿i7-8700K在综合表现上又确实可以压过酷睿i5-8600K,从这个角度来看,酷睿i7-8700K也确实物有所值。酷睿i7-8700K是综合考虑之下的“合理之选”因此如果说酷睿i5-8600K是搭配RTX系列显卡的“理智之选”,那么酷睿i7-8700K则是综合包括价格在内的各个方面后所得出的“综合之选”,它各方面的表现都要比酷睿i5-8600K好一些,但你必须为此付出更高的价格。当然如果你预算非常充足,那就根本不需要什么“综合考虑”、“理智选择”,直接上酷睿i9-9900K吧,这款处理器不单单是现在很强,而且在未来的一段很长时间里也不会成为整机游戏性能的瓶颈,不仅仅是RTX 2080 Ti,即便是在未来搭配更高级别的显卡也会游刃有余,“现今最强游戏处理器”的并非浪得虚名。只是作为代价的话,你就要接受酷睿i9-9900K相对高昂的价格,以及暂时还看不出来的游戏性能优势。想了解更多有关科技、数码、游戏、硬件等专业问答知识,欢迎右上角点击关注我们【超能网】头条号。虽说显卡也是一分钱一分货,但是一般来说,显卡最具性价比的往往是在1000-2000元档次之间,也就是说这个价位的显卡往往能做到一元钱所买到的最高性能,像GTX1060和RX580都属于这个价位性价比较高的显卡,包括从数百元到5000元之间可能都是这两款显卡性价比最高,也就是俗话说的“甜点”显卡。你所说的RTX2080属于不折不扣的高端显卡,到了这个档次已经谈不上什么性价比,因为2080的性能也就是1060的两倍以上,但是价格或许能达到三倍,所以只适合追求极限性能、不差钱的用户选购,下面我们就来看看RTX2080在高端显卡中的性价比。RTX2080刚上市的时候高达6500元,这个价格是相当偏高的,毕竟2080的实际图形性能和1080ti旗鼓相当,但是1080ti只卖5500元左右,因为2080拥有全新的光线追踪技术和DLSS人工智能抗锯齿所以才贵出了1000元溢价,问题在于真正使用这些新技术的游戏太少了,因此RTX2080性价比只能说很低。不过NVIDIA也意识到了情况,两个多月下来rtx2080的销量也不怎么样,不降价是不行了,于是2080目前的价格普遍回落了不少,来到了5500-6000元,达到了退市前1080ti的价格,这样性价比就比以前高多了,至少大家已经没有必要再去选择上一代显卡了。但是好景不长,随后的RTX2070性能比2080若不了多少(最多20%),但是价格却便宜了近2000元,所以在2070面前,2080的性价比实在太低了,总之RTX2080及更高等级的显卡目前来看并不值得选购。

RTX20805X99是否是目前性价比最高的显卡

4,GTX760和GTX1050那个好点

授人以渔,你以后可以参考显卡天梯图,下图是显卡天梯图的局部(越靠上的gpu越强):
如果单论性能不说功耗,gtx760性能是给1050强的,但强的应该不是很多,大概百分之10左右,因为gtx1050对应是gtx950性能,gtx760性能介于gtx950和gtx960中间,如果加上功耗,发热,等等,gtx1050.2g优势明显大于gtx760的,

5,徒步鞋中的gtx是什么意思

GTX是GORE-TEXT?面料的缩写。GORE-TEX?薄膜和高性能纺织面料复合而成,并采用创新技术的粘合剂进行密封,从而能够提供持久的防水保护。所有GORE-TEXT?产品的核心。其每平方英寸的微孔多达90亿个。这些微孔的大小只有一滴水的两万分之一,但是它们比一个水分子的体积大700倍。这样,GORE-TEX?薄膜就可以在彻底防水的同时让汗水排放到薄膜之外。此外,薄膜中还添加了一种疏油性物质,能防止体油或驱虫剂对薄膜的损害。是美国戈尔公司生产的。
一看就短途的轻装鞋。cyrus就是低帮的,没有高帮款,重装鞋必然是高帮。

6,电脑装机求指导两套方案i5i7现在肯定选8代了各自选那只型号

i5看你选性价比方案还是性能方案了,8600是i5里面偏性能的方案,相对8400性价比不高,主频高一些,配B360和1060属于现在的中端主流游戏配置,非常均衡i7 8700如果不带K,没必要上Z370的板子,还是搭配B360即可,显卡下到1060上到2080Ti都可以搭配,取决于你的预算如果你要给i5配更好的显卡,受制于CPU的性能,最高建议2070或者同级别的1080但我说如果你都能8700加好显卡了,8600那套可以直接忽略掉不为采纳,只是给点实际的建议
搭配技嘉ga-h55m-s2 就可以了,价格大约在600元以内,不过1156主板大多已经停产,此主板还是是剩余货存比较多的
i7 8700 b360 1070ti或1080 就够了 主流的游戏没有玩不了的 我自己的是i5 8500 b360 1070ti玩战地5最高特效全程100帧往上 你可以参考下

7,华硕ROG GD30这款游戏电脑的优势是什么谁人在用它

1.华硕ROG GD30这款电脑最高的的配置版本是:英特尔i7 7700理器,32G内存,GTX1080 8G显卡,256G固态硬盘,2TB机械硬盘。2.优势: 它是华硕官方出品的游戏电脑,主板和显卡都是使用华硕自己出品的,华硕作为主板和显卡世界级大厂,品质还是有保障的,这个配置性能很强,足够全高特效畅玩目前市面流行的绝大部分游戏无压力。3.谁用它: 一般这类发烧级的电脑的用户都是高端游戏用户,对品质和性能都有较高要求的人。4.缺点: 价格高昂,比自己买配件配的价格要贵很多,追求性价比的玩家不适合入手,这个价格都可以配最新的i9 9900k处理器,RTX2080Ti 11G显卡,32G内存,512G固态的主机了。性能比这个强得多。
楼主你好,若是选择游戏电脑的话,这款的,好用多了,而且评价也高。它搭载了全新的第七代酷睿i7 7700处理器和GTX 1080旗舰显卡,这样用户玩游戏的时候,更容易上手些。 希望回答能够帮助到你,望采纳,谢谢
华硕台式电脑,建议:华硕碉堡 k30bf-a8614m1 华硕品牌在电脑行业还算比较不错的。台式机一般,笔记本市场流通量比较大。 主要参数: 产品类型: 家用电脑 机箱类型: 立式 cpu 频率: 3.5ghz 核心/线程数: 四核心 内存类型: ddr3 1600mhz 硬盘容量: 1tb 显卡类型: 入门级独立显卡 显存容量: 1gb

8,英伟达显卡芯片的GTX760与GTX660到底有什么区别

两者主要区别在于核心频率不同、显存频率不同、显存位宽不同,性能上GTX760比660强30%以上,价格上GTX660低于GTX760,两者参数如下。GTX760显卡参数:1. 显卡类型: 发烧级;2. 显卡芯片: GeForce GTX 760;3. 核心频率: 980/1072MHz 1033/1136MHz;4. 显存频率: 6008MHz;5. 显存容量: 2048MB;6. 显存位宽: 256bit。GTX660显卡参数:1. 显卡类型: 主流级;2. 显卡芯片: GeForce GTX 660;3. 核心频率: 980/1006MHz;4. 显存频率: 6000MHz;5. 显存容量: 2048MB;6. 显存位宽: 192bit。
两者主要区别在于核心频率不同、显存频率不同、显存位宽不同,性能上gtx760比660强30%以上,价格上gtx660低于gtx760,两者参数如下。gtx760显卡参数:1. 显卡类型: 发烧级;2. 显卡芯片: geforce gtx 760;3. 核心频率: 980/1072mhz 1033/1136mhz;4. 显存频率: 6008mhz;5. 显存容量: 2048mb;6. 显存位宽: 256bit。gtx660显卡参数:1. 显卡类型: 主流级;2. 显卡芯片: geforce gtx 660;3. 核心频率: 980/1006mhz;4. 显存频率: 6000mhz;5. 显存容量: 2048mb;6. 显存位宽: 192bit。
记得是gtx670的马甲。差距大概是660ti与660的差距
760-660=100
性能上GTX760比660强30%以上价位上GT760 1700+ GTX660 1200+

9,准备买RTX 2070 ARMOR 8G装甲师显卡这个玩现在的单机游戏效果

全文照搬的,有兴趣的朋友看看。前言继发布新一代高端显卡RTX 2080 Ti和RTX 2080之后,NVIDIA紧接着又发布了面向中高端市场的RTX 2070,定价499美元,国内预计会以3999元左右的价格上市。与以往情况不同的是,RTX 2070使用的是NVIDIA Turing架构的第三个核心TU106,而不像前几代“70”和“80”定位型号共用一个“104”核心的情况。RTX 2070所使用的是TU106-400全规格核心,拥有36组SM,2304个CUDA核心,包含Turing架构特有的36个RT Core和288个Tensor Core,后端64个ROP单元、256bit的显存控制器和4MB的L2缓存,配备8GB GDDR6显存。相比RTX 2080 Ti所采用的TU102核心,TU106前端是其一半的规模,后端是其2/3规模,因此可以预计它的性能大约会在RTX 2080 Ti的50-60%左右。TU106每个GPC包含了12组SM,是与TU102相同的设计,而TU104的每个GPC是8组SM。除此之外,TU106核心不支持NVLink多卡互联技术。RTX 2070的核心频率被定在1410MHz,Boost频率1620MHz,这比RTX 2080都要略低,TDP功耗也由RTX 2080的215W进一步降至175W。RTX 2070 FE版同样是对Boost频率做了90MHz的超频,TDP也要比公版高出10W。测试平台及GPU-Z识别信息测试平台:CPU:Intel Core i7 8700K OC 4.8GHz主板:MSI MPG Z390 GAMING PRO CARBON内存:G.SKILL F4-3200C14D-16GTZSW显卡:MSI RTX 2070 ARMOR 8G硬盘:Samsung 960 PRO 512GB电源:Enermax?Revolution 85+ 1050W散热器:Corsair H100i V2室温:27度GPU-Z识别信息,核心频率1410MHz加速频率1620MHz(与RTX 2070参考频率相同),最大加速频率1800MHz,显存频率1750MHz等效频率14000MHz。使用NVIDIA的smi工具查看微星RTX 2070 ARMOR的最大TDP为175W。性能测试数据汇总RTX 2070和GTX 1070之间,如果光算流处理器的差距大概是20%,所以在一些纯跑DX 11图形性能的测试中,例如3DMark?FireStrike的测试就基本是领先20%的性能差距,但在大多数的游戏以及DX 12基准测试中,RTX 2070都能领先GTX 1070 20%以上的性能差距,尤其在4K分辨率的游戏中性能最为突出。功耗方面,因为RTX 2070本身功耗175W,GTX 1070功耗150W,所以反映到整机功耗上也是差了20W-40W左右。MysticLight与灯光效果展示微星现在主板、显卡的RGB系统都统一使用Mystic Light软件来控制,界面非常清爽、简洁,左侧是灯光设定,右侧是灯光的预览效果,设定完成后点击右下角的“应用”。共有9种预设灯光效果,可自定义颜色、闪烁速度和灯光亮度。龙魂RGB灯光效果展示。总结微星RTX 2070 ARMOR显卡相比前作品质升级,除了保持两个10cm的大风扇,60度以下风扇停转,把静音和散热效果做到平衡之外,外观上增加了RGB灯、背板这些可以提升外观档次又颇具实用性的因素,让这张入门级的RTX 2070显卡也显得诚意满满。微星RTX 2070 ARMOR显卡的3D效能方面,公版频率的性能表现基本和非公版GTX 1080打成互有胜负,如果是出厂超频后的非公版RTX 2070型号,应该表现还会更好一些。基本上可以说RTX 2070完美接替了GTX 1080。从光线追踪技术的层面来看,NVIDIA推出RTX 2070显卡,让RTX光线追踪技术进一步亲民化,但是对于RTX技术本身从发布起到现在的一个月,都在面临争议不断的局面,不少网友对它持质疑的态度:第一代RTX显卡是否真的可以在支持光线追踪的游戏中流畅运行——但根源都是支持RTX的3D API和游戏还没有上市。微软至今没有在Win 10 1809中提到有关DirectX 12 DXR的信息,支持RTX的游戏《战地5》《古墓丽影:暗影?RTX版》等的上市时间,也从10月推迟到了11月。对于现在推出的RTX显卡来讲,RTX 2070是定位最低的一个,因此我认为无论是从价格还是性能上考虑,RTX 2070在光线追踪游戏中的表现都要比RTX 2080、RTX 2080Ti更受大家关注,相信到微软DX12 DXR的成熟、支持RTX光线追踪的游戏正式上市那天,一切疑云都会解开。今天我们评测的是微星RTX 2070 ARMOR装甲师显卡,RTX 2070装甲师显卡保留了朴素的黑白配色、双风扇设计,但是外观上比前代GTX 1070?装甲师显卡也升级了不少,例如增加了RGB灯光和背板。RTX 2070装甲师是一张非公版显卡,但核心频率保持与公版一样是基础频率1410MHz/加速频率1620MHz。RTX 2070的核心频率被定在1410MHz,Boost频率1620MHz,这比RTX 2080都要略低,TDP功耗也由RTX 2080的215W进一步降至175W。RTX 2070 FE版同样是对Boost频率做了90MHz的超频,TDP也要比公版高出10W。今天我们评测的是微星RTX 2070 ARMOR装甲师显卡,RTX 2070装甲师显卡保留了朴素的黑白配色、双风扇设计,但是外观上比前代GTX 1070?装甲师显卡也升级了不少,例如增加了RGB灯光和背板。RTX 2070装甲师是一张非公版显卡,但核心频率保持与公版一样是基础频率1410MHz/加速频率1620MHz。产品介绍微星RTX 2070装甲师显卡采用非公版设计,黑白配色,刀锋4双风扇散热器,采用NVIDIA Turing架构TU106核心,核心频率1410MHz,加速频率1620MHz,显存为256bit 8GB的GDDR6,等效频率14GHz。RTX 2070虽然功耗在175W,但微星RTX 2070 ARMOR配备了8+6PIN的外接供电,提供225W以上的供电能力。这一代RTX 2070 ARMOR显卡配备了背板,金属拉丝工艺,背后有MSI的LOGO和龙图腾。微星RTX 2070 ARMOR显卡是非公版越肩PCB设计,在PCB上有加固并兼顾散热的金属片覆盖,并与PCIE背板连接加固。并且由于TU106核心不支持NVLink的关系,该显卡这里也就没有对应的金手指。视频输出接口部分,与公版规格相同,3个DisplayPort?1.4接口、1个HDMI 2.0 b接口、1个USB Type-C (支持VirtualLink)?接口。顶部GEFORCE RTX标志,旁边的龙魂信仰logo支持RGB灯光效果,支持MysticLight自定义灯光效果,预设9种灯光模式。散热器拆解与细节介绍RTX 2070?装甲师的散热系统大致可以分为三个部分,第一部分是传统的风冷散热器,采用5热管双塔结构设计;第二个部分是导热装甲,覆盖于供电元件上并通过导热贴和散热器连接在一起,将MOSFET的热量传导到散热鳍片上,帮助显卡供电保持低温和稳定;第三个部分是金属背板,在显卡核心和显存背后贴有导热贴,可通过导热贴将热量传导到背板上,辅助核心和显存散热。散热器采用5根6mm热管直触设计,利用压平的热管直接接触核心,可以更快的传导热量,减少包夹式热管的第二层热阻,旁边的银灰色部分是专门为显存设计的散热底座,通过导热贴连接显存,将热量传导到散热底座上进行散热。散热鳍片采用穿Fin技术包夹热管,贯穿双塔鳍片,鳍片中央有特殊的开槽设计,可以优化气流导向,提高风量,在鳍片的上下两层均有扣Fin设计加固鳍片,提高鳍片稳固性,散热器的整体做工非常扎实。RTX 2070?装甲师配备两个10cm刀锋4代风扇,扇叶经过特殊优化,可通过引流槽导入更多气流,增强风扇的风压和风量,双滚珠轴承设计,更加经久耐用,并且支持智能停转技术,在待机时给用户带来绝对的零噪音使用环境。
我用2600x上2070玩绝地求生2k全高稳定在一百平左右,你自己掂量掂量吧!
完爆所有游戏,通杀。
你好!完爆所有游戏,通杀。仅代表个人观点,不喜勿喷,谢谢。仅代表个人观点,不喜勿喷,谢谢。
文章TAG:gtx2080我买了一块gtx2080显卡请问能干嘛有什么需要这的游戏吗我买一块显卡

最近更新

  • 三星韩华贴片机,三星贴片机CP45出现Error occurred during the homing action of MIR是

    本文目录一览1,三星贴片机CP45出现ErroroccurredduringthehomingactionofMIR是2,三星贴片机471plus要用2套料吗3,三星贴片机轨道设置在哪里4,三星贴片机SM321S一开机就报警前面的紧急停止开关被按下但紧5,三星贴片机sm321报1002代码是什么意思6,三星sm411贴片机一小时可以贴多少 ......

    锤子 日期:2022-09-25

  • 三星查看处理器型号,三星note4怎么查看是什么处理器

    本文目录一览1,三星note4怎么查看是什么处理器2,三星s6全网通怎么看cpu型号3,三星s7怎么查看cpu4,怎么查看三星手机的处理器5,我的三星note7如何查看cpu是高通的还是三星的6,如何查看自己手机的CPU和GPU型号1,三星note4怎么查看是什么处理器三星NOTE4CPU(处理器):四核2.7GHz。2,三星s6全网通怎 ......

    锤子 日期:2022-09-25

  • 三星2017手机图片,三星2017手机多少钱

    本文目录一览1,三星2017手机多少钱2,三星2017年最新款手机有哪些3,如何将三星2017手机照片导入三星2019手机4,三星2017上市了吗5,三星2017和2o16有什么区别2o17是三网通吗6,三星w2017和w2016这两款手机那个好7,W2017三星手机哪里的比较好8,三星2018来电通话时外屏能显示心系天下图吗9,三星20 ......

    锤子 日期:2022-09-25

  • 华为手机官网价格,华为商城官网 手机v832g多少钱

    本文目录一览1,华为商城官网手机v832g多少钱2,华为手机官网mate8的价格是多少3,今年双十一华为p20官网到手价是多少1,华为商城官网手机v832g多少钱您好!荣耀V84GB+32GB全网通版(铂光金)目前官网售价为¥2499.002,华为手机官网mate8的价格是多少华为Mate超八核G标准版目前全新售介元。该搭载全新海思麒麟K ......

    锤子 日期:2022-09-25

  • 现在华为最新款的是哪一款手机,2022华为最新款手机有哪些

    本文目录一览1,华为最新款手机是哪款20222,2022华为最新款手机有哪些3,华为最新款是什么手机1,华为最新款手机是哪款2022截止至2022年5月24日,华为最新款手机是HUAWEIMateXs2。HUAWEIMateXs2是华为公司于2022年4月28日发布的手机产品。HUAWEIMateXs2屏幕展开态为7.8英寸,折叠态为6. ......

    锤子 日期:2022-09-25

  • 华为全部型号手机和价格,华为手机型号JSNAL00价格是多少元6G

    本文目录一览1,华为手机所有型号2,华为手机型号JSNAL00价格是多少元6G3,华为手机全部型号1,华为手机所有型号华为手机型号包括:华为P50Pro、华为Mate40Pro、华为P40Pro+、华为畅享10、华为nova9SE、华为P30、华为P30Pro、华为Mate20X、华为nova4、华为nova7等等。2,华为手机型号JSN ......

    锤子 日期:2022-09-25

  • 三星2019出了哪些手机,正品三星2019太贵了 今天听朋友说有天锋2019 值得入手吗

    本文目录一览1,正品三星2019太贵了今天听朋友说有天锋2019值得入手吗2,三星2019年一共出了几款手机3,三星最新出厂的手机是什么型号4,三星最新款手机是什么5,三星手机的型号分别是什么样的6,三星有哪些机型1,正品三星2019太贵了今天听朋友说有天锋2019值得入手吗如果你很喜欢,经济也允许的话,那就可以考虑买了。有的2,三星20 ......

    锤子 日期:2022-09-25

  • 三星平板电脑性价比排行,平板电脑性价比排行

    本文目录一览1,平板电脑性价比排行2,平板电脑性价比排行2021年最值得入手的平板是什么3,平板电脑性价比排行榜是什么1,平板电脑性价比排行如下:1、华为M6华为M6平板电脑取消正面物理按键,产品有8.4英寸和10.8英寸两种屏幕尺寸,均配备2560*1600分辨率屏幕,长宽比为163,336,010。华为的M68.4平板电脑机身较小,屏 ......

    锤子 日期:2022-09-25