Maxwell旗舰降临 GTX980/970首发评测
泡泡网显卡频道9月19日 无论是对于CPU还是GPU,真正的指数性增长一般只存在于理论中或者实验室里,具体到产品总会受到种种环境因素的制约,很难成为现实。然而首款Maxwell架构的显卡——GTX750Ti,虽然只是一款中端产品,居然绕过了这种制约,在性能功耗比方面获得了飞跃式提升,这就让我们对Maxwell架构的高端显卡更加期待了。
在首款Maxwell架构显卡GTX750Ti发布的时候笔者写过:从以往经验来看,架构的改变往往只是起到优化和排除瓶颈的作用,GPU工艺的进步对能效比的影响更深刻。换句话说工艺的进步意味着1.0→2.0版本的改变,而架构的改良则更像是2.0→2.1版本的进步,但测试了GTX750Ti/750显卡之后,发现架构革命带来的提升也有可能超越工艺进步!GM107无论从晶体管规模还是实际性能上看都只是一颗中低端的核心,但它卓越的能效比已经昭示出未来高端Maxwell的无比强大!
或许还有不少质疑的声音,毕竟GTX750Ti除了功耗奇低以外似乎并没有什么其他的过人之处!但今天GM204的发布相信不会让任何人失望,如果说GTX750Ti仅仅是小试牛刀,那搭载GM204的GTX980无疑是压轴之作了!可以预见,Maxwell架构全线产品上市后将引发显卡市场的一次大规模洗牌!
NVIDIA Kepler GPU架构于2012年初问世,它前所未有的能效比催生出全球最快的游戏PC、工作站以及超级计算机和云游戏服务器。甚至智能手机、平板电脑乃至汽车的信息娱乐系统都得益于TegraK1系统(SoC)获得了空前的视觉计算功能。
而NVIDIA的第一代“Maxwell”架构在上一代的基础上又获得了全新的提升。事实上“GM107”在研发期间的定位是专为笔记本和小型(SFF)PC等功率受限的使用场合而设计。但事实上它的性能已经达到了桌面低端甚至中端的水准,NVIDIA在最后时刻将其打造成GTX650Ti的接班人,强行推入主流市场。
在1080p分辨率下,GeForceGTX750Ti的性能通常可与四年前的旗舰GPU——GeForceGTX480比肩,然而热设计功耗仅为区区60W,是后者的四分之一!那Maxwell高端产品又当如何?是什么革新让它有如此惊人的表现呢?
Maxwell的灵魂: 每瓦特性能质的飞跃
Maxwell在流式多处理器(SM)方面采用了一种全新设计,可大幅提高每瓦特性能和每单位面积的性能。虽然Kepler SMX设计在这一代产品中已经相当高效,但是随着它的发展,NVIDIA的GPU架构师再次在能效比利用方面突破了难关。
MaxwellSM设计实现证明了这一点,控制逻辑分区、负荷均衡、时钟门控粒度、编译器调度、每时钟周期发出指令条数等方面的改进以及其它诸多增强之处让Maxwell SM(亦称“SMM”)能够在效率上远超Kepler SMX。全新的Maxwell SM架构能够在GM107中把SM的数量增至五个(GK107中仅有两个),而芯片面积仅增加25%。下表提供了高级对比,对比双方分别为Maxwell以及上一代GK107 Kepler GPU:
具体来说,首先Maxwell采用了容量大增的二级高速缓存设计,Maxwell核心架构中二级高速缓存容量为2048KB,而GK107中的容量仅为256KB。由于片上高速缓存容量更大,因此需要向显卡DRAM发送的请求更少,从而降低了整体显卡功耗、提升了性能。
除了上述变化以外,NVIDIA的工程师还雄心勃勃地在晶体管水平上调整了Maxwell GPU中每个单元的实现方式,以便最大限度提高节能性。所有这些努力的最终结果是,采用相同的28纳米制造工艺,Maxwell能够提供相当于Kepler两倍的每瓦特性能!
虽然说起来简单,但事实上这些就意味着Maxwell内部所有单元和横梁结构均得到了重新设计,数据流得到了优化,功率管理实现了大幅改变。
虽然从图形特性的视角来看,第一代Maxwell GPU可提供与Kepler GPU相同的API功能,但从深层来上,Maxwell还在单个GPC(图形处理簇)内实现了多个SM单元,每个SM包含一个多形体引擎(Polymorph Engine)和纹理单元,而每个GPC包含一个光栅引擎(Raster Engine)。ROP依然与二级高速缓存片(L2 Cache Slice)以及显存控制器联系在一起。
GM107
GM204
GM 204 GPU包含4个GPC、16个Maxwell流式多处理器(SMM)以及4个64位显存控制器(共256位)。这就是这一芯片的完整实现形式,规格大约是GeForce GTX 750Ti中的GM107的3倍。
上一代SMX 处理核架构解析
上一代Kepler的方法是划分为非2幂(non-power-of-two)数量的CUDA核心,其中一些是共享核心,这种方法需要的SM调度器数量较少,但复杂程度较高,在各种各样的游戏引擎环境中表现并不理想。
SMX: 192个单精度CUDA核、64个双精度单元、32个特殊功能单元(SFU)和32 个加载/存储单元(LD/ST)。
每个SMX单元具有192单精度CUDA核,每个核完全由浮点和整数算术逻辑单元组成。Kepler完全保留Fermi引入的IEEE 754-2008 标准的单精度和双精度算术,包括积和熔加(FMA)运算。
成对的处理块共享四个纹理过滤单元和一个纹理高速缓存。计算一级高速缓存的功能现在也与纹理高速缓存功能相结合,而共享显存是一个独立的单元(类似首款CUDAGPU——G80中所使用的方法),被全部四个块共享。
新一代SMM 处理核架构解析
Maxwell SM框图
而现在每个SM分为四个独立的处理块,每个处理块具备自己的指令缓冲区、调度器以及32个CUDA核心。新的划分方法简化了设计与调度逻辑、节省了晶体管与功耗、降低了计算延迟。
总体而言,在这一全新设计上,每个“SM”的尺寸得到大幅缩减,而性能却能够达到一个KeplerSM的90%。更小的晶体管消耗让NVIDIA能够在每颗GPU中实现更多数量的SM。通过对比Kepler和Maxwell SM总数的相关指标可发现,后者的峰值纹理性能比前者高25%,CUDA核心数量多1.7倍,着色器性能大约高2.3倍。
SMM架构显存系统的改进
对GM204来说,要在显存位宽与上一代Kepler架构核心相同的情况下实现性能大幅提升的目标,增强显存系统也同样重要。内部显存系统带宽实现了提升,效率也得到了改善。此外,2MB大容量二级高速缓存配置(比之前的任何GPU设计都大)十分有效地降低了显存带宽需求,确保了DRAM带宽不成为瓶颈。
其他关于Maxwell架构的基本信息,例如通过Giga Thread引擎的主PCI Express接口数据流、Polymorph与Raster单元的基本操作等等过于晦涩的知识这里就不再赘述了。
除了硬件架构的革新,此次NVIDIA还宣布了不少最新的软件技术,很多业内人士喜欢称之为NV的黑科技!
速度与画质一直都是3D游戏追求的两大终极目标,但很多时候,速度与画质总是鱼和熊掌不可兼得,想要开启高级特效必然会损失帧数导致流畅度下降,因此就需要硬件厂商不断的研发出性能更强的GPU,也需要软件厂商研发出更高效率的图形技术。
抗锯齿(Anti-Aliasing,简写为AA)就是这样一项很特别的图形技术,它能够明显的改善游戏画面表现力,同时也会让游戏帧数大幅下降。所以多年以来,不论是显卡厂商还是游戏开发商,都在努力的改进抗锯齿效率,开发出新的抗锯齿模式,让游戏画质变得更好,同时也不至于让性能损失太多。
所以,大家一定听过或者见过以下这些抗锯齿中的一种甚至多种,如:MSAA、CSAA、CFAA、FXAA、TSAA……今天笔者就为大家详细解读3D游戏中的锯齿是如何产生的,回顾最常见的MSAA技术的原理和优缺点,最后介绍NVIDIA新开发的一种效率极高的抗锯齿技术——MFAA。
● 为什么会产生锯齿?
我们知道,显示屏是由一个个方块像素点组成的,这些方块像素点在显示斜向或圆形物体时,会不可避免的在边缘产生锯齿状的线条。就像马赛克一样,只不过是薄码而已……
● 高分屏能否自动消除锯齿?
当显示器的分辨率或显示屏的PPI(每英寸的像素数)足够大时,人眼将无法看清具体的像素点,但相邻像素之间的色彩差异也会产生明显的错落感,高分辨率/PPI由于像素变得非常细腻,可以同比缩小锯齿,但仍不能完全消除锯齿。
● 抗锯齿技术是如何抵抗锯齿的?
前面说过,方块像素显示斜向或圆形物体时,锯齿是无可避免的,抗锯齿也无法消除锯齿,但它能通过欺骗人眼的方法,让锯齿的棱角显得不那么明显:
如上图所示,方法就是对锯齿所在位置的像素及相邻像素进行比对采样处理,计算出该像素应该显示多少比例的灰阶值,而不是“非黑即白”的显示模式。比如4xAA就是对每个像素采样4次,原本该像素只有0、1两种显示模式,开启4xAA后就能显示0、1/4、1/2、3/4、1五种模式。
如此一来,棱角分明的锯齿边缘,就会显得比较模糊,色彩过渡比较自然,就不会那么刺眼了,锯齿一定程度上被消除了。
● MSAA占据主导位置,4xMSAA使用最广泛
MSAA的全称是Multi Sampling Anti-Aliasing,多重采样抗锯齿。MSAA只对Z缓存和模板缓存中的数据进行采样处理,可以简单理解为只对多边形的边缘进行抗锯齿处理,而忽略非边缘像素(因此可能会在一些特殊位置残留一些锯齿)。这样的话,相比SSAA对画面中所有数据进行处理,MSAA对资源的消耗需求大大减弱,因此MSAA在游戏中使用最广泛,多年来一直占据主导位置。
通常在游戏中会提供2x、4x、8x三种抗锯齿级别,一般最常用的就是4x这种模式,因为4x和8x的画质差别已经很小了。
● 开启抗锯齿性能损失有多大?
可以看出,4x抗锯齿虽然效果优秀,但性能损失比较大,而2x性能损失最小,可以说效率最高。
● NVIDIA的黑科技:超高效能的MFAA
鉴于高倍MSAA性能损失较大的问题,NVIDIA在MSAA的基础上开发出了一种“投机取巧”的技术:Multi-Frame Sampled Anti-Aliasing(MFAA),从字面上来看它是MSAA的一个变种,可以翻译为“”。
上图为MFAA的工作原理,奇数帧在水平方向进行一次2xMSAA采样,偶数帧在垂直方向进行另外一次2xMSAA采样,然后通过软件算法将其合成,最终的采样结果与直接进行4xMSAA没有区别。
可能会有人担心,对相邻的两帧进行两次2xMSAA采样合成会不会造成画质损失,尤其是当画面运动幅度较大时?其实MFAA都是对物体边缘进行采样,无论运动幅度多大都有固定的几何轨迹,因此两帧始终会在固定的像素点进行合成,不会产生错乱,合成之后的采样效果自然也不会与MSAA有啥区别。
● 4xMSAA的画质与4xMFAA完全相同,4xMSAA的性能接近与2xMSAA
4xMFAA的画质与4xMSAA没有区别
当然,通过算法将两次2xMSAA合成为4xMFAA,性能肯定会有损失的,NVIDIA官方称性能损失会在5%以内,这样4xMFAA的性能自然会远超4xMSAA,只是略低于2xMSAA。同理可以实现8xMFAA的性能远超8xMSAA,略低于4xMSAA。
4xMFAA的帧数比4xMSAA高30%
通过这样一个简单而有创意的技术,可以免费让NVIDIA显卡的抗锯齿性能提高30%,简直逆天了!
NVIDIA新开发的高效能抗锯齿技术——MFAA,它能够以2xMSAA的性能,提供4xMSAA的画质,从而以较小的性能损失提供更完美的游戏画质。这样当玩家们玩类似《显卡危机3》、《男朋友4》这样的优异大作,由于FPS本身较低不敢开高倍AA时,就可以开启MFAA技术,让速度与画质兼得。
但并不是所有的游戏都像显卡危机一样吃显卡,绝大多数游戏对显卡要求不是很高,比如《穿越火线》、《英雄联盟》一类的游戏中端显卡就能动辄跑100FPS以上,此时显卡性能有些浪费,那有没有通过牺牲一部分FPS来提高画质的方法呢?现在笔者就为大家介绍NVIDIA的另外一项黑科技——
Dynamic Super Resolution(DSR),动态超级分辨率
简单来说,DSR技术可以在普通的1080p显示器上显示4K级别的游戏画面,当然NVIDIA即便掌握了火星科技也不可能将1080p显示器变成4K显示器,该技术只是在后台以4K分辨率渲染游戏画面,通过动态缩放的方式显示在1080p显示器上,虽然实际分辨率依然是1080p,但游戏画面却要比原生1080p分辨率渲染出来的好很多。
首先我们来看一张开启DSR前后的游戏画面截图:
可以看出,开启DSR之后的草丛边缘显示效果要好很多
然后再通过显卡渲染流程为大家分析出现差异的原因:
可以看到,DSR模式在GPU内部是以真4K分辨率进行渲染的,只不过在像素输出阶段将4个像素合成为1个像素,最后才以1080p分辨率输出。4K的分辨率是1080p的4倍,渲染精度自然大幅提高,输出像素的采样率相当于是4倍,最终的画面自然会更加柔和平滑一些。
看到这里的示意图,相信资历较老的玩家会发现DSR技术有些类似于最早期的SSAA(超级采样抗锯齿),就拿前面的示例图来说,原理可以说是完全相同的,但区别是SSAA只针对几何物体的边缘,而DSR则是针对全屏所有像素进行二次采样,毕竟内部就是以4K分辨率进行渲染的。
哪边开启了DSR,很清楚吧?
DSR对游戏有要求吗?
DSR技术的工作模式非常简单,它在系统内部模拟出了4K分辨率的显示器,游戏就会以为电脑拥有一台4K显示器,从而以4K模式渲染出高精度的画面,最后GPU再重新采样并缩放成1080p分辨率输出,因此DSR技术的唯一要求就是游戏本身能够支持4K分辨率。
如何开启DSR技术?
DSR技术支持几乎所有的PC 3D游戏,玩家可以在最新版的343驱动控制面板中开启,或者使用GeForce Experience自动扫描并优化游戏,如果您的显卡较好,那么像暗黑3这样要求不是很高的游戏默认就会开启DSR技术。
DSR除了4K模式,还支持自定义分辨率,如2K模式:
当然,如果显卡性能还不够强的话,DSR技术允许玩家进行自定义设置,将渲染模式从4K降为2K,以2K模式渲染出来的画质缩放成1080p分辨率输出后,画质依然会有明显提升,同时性能损失不至于太大。
DSR目前只能在GTX980/970显卡上开启:
目前DSR只能在基于GM2XX GPU的显卡上开启,这就意味着上代GK1XX GPU显卡无缘享用,如果对这项技术感兴趣,就必须要升级Maxwell中高端显卡了。
打个比方帮助您理解DSR技术:
你用手机拍的照片,传到电脑里在大显示器上就能看到很多噪点和模糊之处,但在手机的小屏幕上却基本看不到这些瑕疵。DSR技术就是通过渲染大分辨率、输出小分辨率的方法来过过滤掉边缘的锯齿和模糊的纹理这些瑕疵。
传统直接光照效果
全局光照效果
区别很明显吧?通俗的讲,直接光照就是简单的模拟一个或多个光源的照射效果,在相应的位置投射出光和影;而全局光照就是考虑到了光线的直射与尽可能多的漫反射效果,最终呈现出来的光影效果更接近于现实世界。
全局光照指的是对场景周围光线反射的计算。全局光照负责制作出现实环境中的许多细微着色特效、气氛以及有光泽的金属反射效果。自1995年在虚幻1中采用实时直接光照以来,虚幻4引擎中的实时全局光照是在光照方面实现的最大突破!
● 在没有全局光照技术之前,游戏是如何实现更逼真光影效果的?
也许有人会说了,现有的游戏其实光影效果还是不错的,并不像上图1所示那么差。没错,上图的对比是比较直接的、没有附加特效的,其实游戏中还有其它的方法来提高画面真实度,最常见的就是Ambient Occlusion(AO,环境光遮蔽)技术。
目前非常先进的水平环境光遮蔽技术 (Horizon Based Ambient Occlusion,HBAO)
但不管是什么级别的AO,都是对光照与阴影的一种模拟,可以说是预处理,开发者认为此处的阴影的颜色应该深一些、或者浅一些、或者柔和一些,所以才会加上去的,而不是通过复杂的光影算法来直接生成的。
● 喜欢浓妆艳抹还是清新素雅?
我们知道传统的图形渲染分为立体建模(顶点着色)和像素着色两个部分,其中像素都是2D平面状的,平铺在模型表面,而光影效果都是需要预先计算每个像素的光照或阴影,就是根据游戏的需要来改变像素颜色。
这种对每个像素反复进行涂抹修饰的做法,既不逼真、也很低效,因为像素显示的并不是真正的光影效果,而是我们认为应该显示的效果,而且越来越多的预处理特效对GPU的ROP(光栅单元)和显存造成了很大的负担。
● VXGI立体像素全局光照:2D平面像素变为3D立体像素
NVIDIA使用了一种非常巧妙的方法,从根本上改变了虚假的光影处理流程。
传统游戏中,所有间接光照(某一表面反射出来的光线)是预先计算的,存储于有光线贴图之称的纹理内。光线贴图让游戏场景能够具备类似全局光照的效果,但是因为它们是预先计算的,所以只在静态物体上有效。
VXGI完全抛弃了将光线贴图存储于2D纹理中的做法,而是将其存储于立体像素中。立体像素就是三维像素,它具有体积,类似于乐高积木。
立体像素采用树状结构分布,以便能够对其进行高效地定位。当渲染一个像素时,它能够有效地询问立体像素树: “哪一个立体像素对我来说是可见的?”根据这一信息,就能够决定接收的间接光线数量(全局光照)。
VXGI完全消除了预先计算的光照,以存储于树状结构的立体像素取而代之,这种树会根据每一帧而更新,所有像素均利用它来收集光照信息。
● VXGI立体像素全局光照:每颗立体像素都是“手电筒”
现在到了最关键的地方,立体像素看起来好像比马赛克更加稀疏,但是所有可见的立体像素都可以执行锥形聚焦光线追踪(给出起点、方向和角度),这样就能沿着小范围的锥形路径生成大致的光线漫反射效果。
每一个立体像素都可以进行多个锥形追踪,游戏中需要根据实际光源的大致方向及反射表面的情况,来设定锥形范围及追踪数量。
实现最终的效果没有捷径,就是通过GPU强大的运算能力,让锥形追踪足够快,以使我们能够实时地对每个立体像素执行一次或多次追踪。对每个像素执行六次宽幅锥形追踪 (每个主要方向各一次) 会生成大致的二次反射间接光照效果。以镜面反射方向执行窄幅锥形追踪能够呈现金属反射效果,在这种反射效果中,每个有光泽的表面都能够反射出整个场景。
● 虚幻4引擎完美支持VXGI,Maxwell显卡运行效率更高
值得一提的是,VXGI提算全局光照技术严重依赖于GPU的浮点运算(通用计算),而不是传统的图形流水线,因此大大减轻了GPU光栅单元的负担。另外,NVIDIA称Maxwell架构对VXGI的运算进行了针对性的优化,新一代显卡在执行体素全局光照时的效率会更高。
VXGI现已加入UE4豪华DEMO
虚幻4引擎已经完整支持了VXGI技术,最新的虚幻4技术演示Demo已呈现除了非常惊人的光照效果,不久之后,将会有一大批使用虚幻4引擎的游戏大作问世,届时Maxwell架构的显卡将会有更佳的性能表现。
DSR和MFAA算是重头戏,但除此之外NVIDIA公布的新技术还有不少,有些更是之前不为人知!
和游戏引擎开发团队合作,帮助他们在开发出功能更丰富的产品一直是NVIDIA的重要战略之一,本次NV公布了这一阶段的一些成果。
PhysX FleX是物理加速的另一项技术成果,它能让液体和固体之间的物理碰撞更加接近真实,事实上是将液体和固体模型均粒子化以后复合运算达到真实的效果。
事实上物理加速的应用非常广泛,在不同平台不同设备上都在加速普及,将来无论是电脑PC还是游戏机或者是手机平板,都会越来越多的采用NVIDIA提供的物理加速解决方案,物理加速是虚拟现实技术不可或缺的重要构成环节,全面普及是大势所趋。
memory compression(显存压缩)是一种可以大幅节省显存容量和显存带宽的技术,通过算法优化,很多重复的材质和信息可以被压缩存储,这样显存的利用率得到大大提升。
用这个赛车游戏举例,其实大多数像素的信息都是重复和可被选压缩的
不同的游戏可压缩的程度有所不同,但从NVIDIA官方披露的数据来看,大家再也不用担心GTX980的显存会不够用了!
NVIDIA一向非常重视软件技术的研发,长期以来都有约300位技术工程师忙碌在研发一线,不仅科研成果斐然,实用技术也是遍地开花。
Farcry系列在游戏玩家中的口碑很不错,其中一个重要原因就是它卓越的游戏代入感。
在即将发布的Farcry4中,采用了很多最新的特效,可以让游戏画面更加贴近现实。
HBAO(环境光遮蔽)可以看做是SSAO的升级版,区别在于首先HBAO规定了一个半径为R的空间范围,对于范围外的空间不做渲染;此外对于一些低精度模型,遮蔽会导致错误的产生,HBAO利用半球的角度偏置参数限制来修正这些错误;此外在采样点数量上HBAO也进行了控制,并利用函数解决了遮蔽的衰减问题。
PCSS是shadow mapping(实施阴影技术)的改进算法,这种软阴影效果可以让实时阴影更加柔和逼真。
TXAA是另一种高效的抗锯齿技术,该模式专为直接集成到游戏引擎中而设计。与CG电影中所采用的技术类似,TXAA集MSAA的强大功能于复杂的解析滤镜于一身,可呈现出更加平滑的图像效果,远远超越了所有同类技术。此外,TXAA还能够对帧之间的整个场景进行抖动采样,以减少闪烁情形,闪烁情形在技术上又称作时间性锯齿。
目前,TXAA有两种模式:TXAA 2X和TXAA 4X。TXAA 2X可提供堪比8X MSAA的视觉保真度,然而所需性能却与2XMSAA相类似;TXAA 4X的图像保真度胜过8XMSAA,所需性能仅仅与4X MSAA相当。
游戏中,遮光物体被光源照射时,在其周围呈现的光的放射性泄露,称其为GOD RAYS(体积光)。例如太阳照到树上,会从树叶的缝隙中透过形成光柱。之所以称之为体积光,是因为这种特效下的光照相比以往游戏中的光照给人视觉上以空间的感觉。体积光让游戏玩家更真实的感觉。
NVIDIA hairworks可以让游戏中的毛发渲染达到极致,达到真正的互动的游戏体验。这一技术可以运用在游戏中的各个运动模型上,使头发/毛皮和其他模型互动,拥有前所未有的真实感。
即将发布的多款重磅游戏大作均将或多或少的采用NVIDIA提供的技术支持,获得更逼真细腻的游戏画面,但鉴于保密协议无法透露更多,所以这里我们只是借助《孤岛惊魂4》说明问题。
效果开高游戏帧数下降,特效开低画质惨不忍睹,如何平衡是一件令游戏玩家头疼不已的事。一般测试的时候我们都是将设置手动调整到最高,目的是压榨显卡的全部性能。但实际游戏的时候,根据显卡的性能和游戏的需要,我们并不需要这么做,而在画面质量和游戏速度两者之间达到非常好的平衡才是我们需要的结果,为了解决这个问题,NVIDIA发布了GeForce Experlence——一款智能设置游戏参数的软件。
这款软件在NVIDIA官网提供下载,安装之后第一次运行,GeForce Experlence会从NVIDIA的云端下载用户所需的游戏设置。
▲ 通过云端硬件和游戏的数据匹配交换,GeForce Experlence可以优化系统。
▲ GeForce Experlence的系统要求,支援主流硬件和系统
GeForce Experlence支持手动调整游戏设置,也支持一键智能优化,云端会根据用户的电脑硬件配置和游戏的要求设置特效的高低,保证所有GeForce用户非常好的的游戏体验。
GeForce Experience 现已优化了支持上百款游戏,下载用户数量也早就超过了千万。而GeForce Experience(GFE软件)1.7之后的版本都加入了一个重大更新,那就是备受期待的Shadow Play。
Shadow Play是GFE中的一个简单易用的游戏录制模块,可充分利用 GeForce GTX 600 和 700 系列 GPU 中内置的 H.264 编码器达到高效率录制游戏录像的功能。通过利用这一硬件编码器,ShadowPlay 对游戏帧速率的影响大大低于传统的录制应用程序,传统应用程序会给 CPU 造成巨大压力。由于帧速率更高,玩家可以享受到更加流畅的游戏体验,而通过以 H.264 格式进行编码,ShadowPlay 避免了其它应用程序中占用数 GB 空间的大文件问题。这样便节省了空间,更重要的是,通过避免不必要的硬盘颠簸,减少了卡顿现象。
ShadowPlay演示:
● Maxwell更加卓越的视频录制功能
与之前的GeForce GPU相比,Kepler主要的技术创新之一是其基于硬件的H.264视频编码器——NVENC。通过把用于视频编码/解码的专用硬件电路集成进来(而不是使用GeForce GPU的CUDA核心),NVENC在H.264编码方面可带来大幅性能提升,同时消耗的功耗更低。
去年Q3利用Kepler的NVENC编码器实现的Shadow Play功能在游戏玩家中获得了极大的成功。因为NVENC编码器在游戏的同时自动记录几分钟的场景,所以只要玩家需要的时候按一个热键,就可以将之前几分钟的画面保存成游戏录像。这让所有GeForce GTX 600和GTX 700系列游戏玩家都兴奋不已。自从Shadow Play发布以来,捕捉的视频数量已逾300万,游戏玩家将捕捉到的视频发布到YouTube上,还有的玩家甚至在Twitch上实时流式传输自己的游戏片段。
为了提高视频性能,Maxwell采用了改进的NVENC模块,该模块编码速度是H.264实时编码的6-8倍或者Kepler实时编码的4倍,解码速度更是提升了8-10倍。换句话说在新一代Maxwell架构的显卡上,游戏同时录像,几乎感觉不到系统性能的下降。
Maxwell还具备量身定制的全新GC5功率状态,特别是能够在视频播放等轻载型使用场合降低GPU的功耗。GC5是一种低功耗休眠状态,在这些使用场合下的节能性远超之前的GPU,这对于高端显卡的意义更大。
电视机首次被开发出来时依赖的是阴极射线管 (CRT),阴极射线管通过在磷管表面上扫描电子束来工作。这些电子束造成管上的某个像素发光,当以足够快的速度激活足够多的像素时,CRT 就会呈现出全活动视频的效果。这些早期的电视具备 60Hz 刷新率主要是因为美国电网是 60Hz 交流电。将电视刷新率与电网相匹配,这让早期的电子产品开发起来更加容易,而且也减少了屏幕上的电源干扰。
到了上世纪八十年代早期 PC 上市之时,CRT 电视技术已经十分普遍,同时在打造计算机专用显示器方面也是最简单、最具性价比的技术。 60Hz 与固定刷新率成为了标准,系统制造商学会了如何在不大完美的情形下物尽其用。在过去的三十年里,即便显示器技术从已经从 CRT 发展到了 LCD 和 LED,但是尚无大公司挑战过这一想法,因此使 GPU 与显示器刷新率同步依然是当今整个行业的标准做法。
但问题是,显卡并不以固定的速度渲染。事实上,即便在单一游戏的单个场景中,显卡渲染的帧速率也会大幅变化,这种变化根据 GPU 的瞬时负荷而定。因此在刷新率固定的情况下,要如何将 GPU 图像搬到屏幕上呢? 第一个办法就是完全忽略显示器的刷新率,对中间周期扫描到显示器的图像进行更新。这种办法我们叫做「垂直同步关闭模式」,这也是大多数游戏玩家所使用的默认方式。缺点是,当单一刷新周期显示两幅图像时,在两幅图像交替时会出现非常明显“撕裂线”,这种情况通常被称作屏幕撕裂。
解决屏幕撕裂问题的老牌解决方案是打开垂直同步,强迫 GPU 延迟屏幕更新,直到显示器开始进入一个新的刷新周期为止。只要 GPU 帧速率低于显示器刷新率,这个办法就会导致卡顿现象。它还会增大延迟,导致输入延迟。输入延迟就是从按下按钮到屏幕上出现结果这段时间的延迟。
更糟糕的是,许多玩家在碰到持续的垂直同步卡顿现象时会导致眼睛疲劳,还有人会产生头痛和偏头痛症状。这些情况推动我们开发了自适应垂直同步技术,该技术是一种有效而备受赞誉的解决方案。尽管开发了这一技术,垂直同步的输入延迟问题现在依然存在,这是许多游戏发烧友所不能接受的,也是电子竞技职业玩家绝对不能容忍的。这些职业玩家会定制自己的 GPU、显示器、键盘以及鼠标以最大限度减少重新开始时的重大延迟问题。
传统的垂直同步就是让显卡输出的帧等液晶刷新。假设显卡渲染的帧比显示器更快,那就让渲染出来的这一帧放在显存里面等待下一个液晶刷新,这个周期里面即使游戏中的模型已经发生位移或者改变,最后显示器输出的依然是之前的图像。假设显示器刷新比显卡更快,那显示器会输出两帧同样的画面。
不开启G-SYNC的一边要么出现撕裂,要么出现卡顿
往往这两种情况交错进行,我们看到的画面就会抖动,看到的游戏世界就会和真实情况有着一定程度的非正常延时。这就是为什么即使我们的显卡帧数跑到100FPS以上,我们依然感觉不是完全流畅的原因。
G-SYNC的出现让这种情况彻底改观,本质上说G-SYNC可以从根源上杜绝撕裂和卡顿,因为G-SYNC是在显示器中加入一个芯片,让显示器听从显卡的命令确定实时的刷新频率。简而言之就是显卡渲染出一帧,显示器就刷新一帧。这样做的好处是无论场景渲染变化如何大,显卡帧数如何波动,只要保持在一定的水平之上,我们看到的都是连贯平滑的图像。
很明显除了观赏体验上发生了巨大变化以外,当 G-SYNC 与高速的 GeForce GTX GPU 和低延迟输入设备搭配使用时,线上游戏的玩家还将获得重大的竞争优势。无论是业余爱好者还是专业电子竞技选手,NVIDIA G-SYNC对他们来说无疑是一次必不可少的升级。
Unreal Engine 的架构师就称 G-SYNC技术为“自人类从标清走向高清以来游戏显示器领域最重大的飞跃”。
相比上一代的Kepler架构,全新的Maxwell架构拥有更小的面积,更低的发热量,带来了更高的每瓦特效能。
GTX980依然延续了上一代NVIDIA高端公版卡的大部分特征,银色搭配黑色,让整体看起来非常有科技感。细节之处的升级也是显而易见,首先颜色的微调让金属质感更加明显,后面刻有电路形状的背板也让显卡的安全性和散热更有保障。
GTX980核心采用的就是之前介绍过的GM204核心,拥有2048个流处理器,核心频率1126MHz,可以Boost到1216MHz,显存频率达到了7012MHz(实测)。最值得一提的是TDP只有165W,比以节能著称的GTX680还要低30W!
金属屏蔽做的非常到位
GTX980的输出接口非常有个性:采用完整版本的三DP、HDMI、DVI 2.0的输出设计,这在以前的显卡上从来没有见到过。事实上它最大支持5120*3200分辨率运行在60Hz,比Kepler最大支持60Hz 4K分辨率更上一层楼。
很明显,各大厂商对于NVIDIA GTX980/970显卡准备充分,与以往首发产品清一色公版卡不同,此次GTX980发布我们就提前收到了很多非公版显卡。
七彩虹iGame GTX980:
由于评测文章赶得比较急,到手显卡没来记得拍拆解图,大家可以先看看外观。
iGame风格鲜明,三风扇显得非常威武霸气。
iGame高端显卡都是主打超频,这款GTX980供电部分得到了加强,双8Pin提供了很大的超频空间,公版GTX980的超频能力就不错了,非公版更值得期待!
映众冰龙GTX980:
核心流处理器:2048
核心: GM204
基础核心频率:1228MHz
动态提速频率:1324MHz
显存频率:7200MHz
显存容量:4096MB GDDR5
散热器:HerculeZ Air Boss
索泰GTX970霹雳版:
索泰GTX970依然延续了上一代霹雳版大部分特征,银色搭配黑色和黄色条纹。。
索泰GTX970霹雳版核心采用的也是之前介绍过的GM204核心,拥有1664个流处理器,核心频率1076MHz,可以Boost到1216MHz,显存频率达到了7012MHz!依然配备4GB DDR5显存。
三风扇 5热管散热器份量十足,比PCB还要长出一截
索泰GTX970的输出接口依然采用了公版设计:采用完整版本的双DP 双HDMI DVI 2.0的输出设计,这在以前的显卡上从来没有见到过。事实上它最大支持5120*3200分辨率运行在60Hz,比Kepler最大支持60Hz 4K分辨率更上一层楼。
耕升GTX970赵云版:
核心流处理器:1664
核心: GM204
基础核心频率:1152MHz
动态提速频率:1304MHz
显存频率:7010MHz
显存容量:4096MB GDDR5
电源接口:8PIN 6PIN PCI-E
输出接口:DVI-I HDMI DP*3
影驰GTX970黑将:
核心流处理器:1664
核心: GM204
基础核心频率:1152MHz
动态提速频率:1304MHz
显存频率:7012MHz
显存容量:4096MB GDDR5
映众冰龙GTX970:
此次测试所有游戏中开启全部特效,包括4X抗锯齿(AA)和16X各向异性过滤(AF)。虽然很多游戏提供了更高精度的AA,但由于实用价值不高,且没有可对比性,所以不做测试。
目前也有部分显示器是(1920x1200),游戏在这种分辨率下的性能表现与1920x1080差不多,FPS稍低一点点,使用这种显示器的朋友依然可以参考我们的测试成绩。
GTX980 GPU-Z
GTX970 GPU-Z
● 测试平台主板:技嘉Z87X-UD3H
技嘉Z87X-UD3H就是8系主板中的主力军,这款Intel Z87芯片组的主板采用LGA1150接口,用于搭配第四代酷睿处理器使用。全能是这款产品的最好概括:IR全数字供电方案带来最效率电气性能,两倍铜、两倍金奢华用料保证最坚固品质,全新的BIOS界面、应用中心让技嘉主板有了更多亮点。
● 测试平台电源:Antec HCP1200
安钛克Antec HCP1200电源在世界超频大赛中非常常见,通过了80PLUS认证,转换效率高达92.4%,支持4路12V输出,最高电流72A,支持四卡SLI/交火。平均无故障运行时间为10万小时。配备一颗8cm静音风扇,运行噪音极低。
● 测试平台SSD:OCZ Vetrx3 240GB
OCZ的Vertex系列属于它的高端固态硬盘,专门为高端玩家和存储发烧友设计。随着Sandforce控制器大红大紫,OCZ也将Vertex系列升级到了全新的SF1200方案。如今SATA3.0 6Gbps接口大行其道,OCZ推出了基于SF2200系列主控芯片的Vertex 3固态硬盘,涵盖60-480GB容量范围。
● 测试平台显卡器:三星U28D590D【淘宝直达链接】
三星4K UHD显示器拥有1ms极速响应时间,能清晰流畅地呈现高速运动场景,4K UHD分辨率(3840*2160)是全高清分辨率(1920*1080)的四倍,能够使800万像素的图像呈现出更鲜活自然的卓越效果。纤毫毕现,灵动逼真,让你轻松畅享精彩刺激的动作电影、竞技游戏及体育赛事。
既然针对平台不同,测试项目自然也相去甚远。三大平台除了PC追求极致性能外,笔记本和平板都受限于电池和移动因素,性能不是很高,因此之前的3Dmark11虽然有三档可选,依然不能准确衡量移动设备的真实性能。
3DMARK主界面
而这次Futuremark为移动平台量身定做了专有测试方案,新一代3DMark三个场景的画面精细程度以及对配置的要求可谓天差地别。
Fire Strike、Cloud Gate、Ice Storm三大场景,他们分别对应当前最热门的三大类型的电脑——台式电脑、笔记本电脑和平板电脑。
最新的3DMARK软件,最严苛的Fire Strike Extreme模式中,GTX980得分5618,GTX970成绩也不错,接近GTX780Ti的水平!
3DMark11的测试重点是实时利用DX11 API更新和渲染复杂的游戏世界,通过六个不同测试环节得到一个综合评分,藉此评判一套PC系统的基准性能水平。
● 3DMark 11的特色与亮点:
1、原生支持DirectX 11:基于原生DX11引擎,全面使用DX11 API的所有新特性,包括曲面细分、计算着色器、多线程。
2、原生支持64bit,保留32bit:原生64位编译程序,独立的32位、64位可执行文件,并支持兼容模式。
3、新测试场景:总计六个测试场景,包括四个图形测试(其实是两个场景)、一个物理测试、一个综合测试,全面衡量GPU、CPU性能。
4、抛弃PhysX,使用Bullet物理引擎:抛弃封闭的NVIDIA PhysX而改用开源的Bullet专业物理库,支持碰撞检测、刚体、软体,根据ZLib授权协议而免费使用。
3Dmark11大量特效堆砌出来的以假乱真的画面让旗舰显卡也不能完全流畅运行它。本次测试中所有显卡一视同仁开启Extreme模式,高端级和旗舰级性能差距依旧非常明显。这个测试项目和最新的3DMARK软件测试成绩正好相反,N卡在3DMARK11中占据了一定优势。
对于现代显卡测试而言,除了3DMark之外必不可少的项目就是来自俄罗斯的Unigine Heaven(天堂),尤以其高负载、高压榨而知名。现在,新一代3DMark发布之后,Unigine也奉上了全新的显卡测试程序“Valley”(山谷)。
Valley正是Heaven的开发团队一手打造的,可以在最大程度上榨干GPU显卡资源。这次场景来到了一个优美空灵的山谷,群山环绕,郁郁葱葱,白雪皑皑,旭日初升,而且拥有极致的细节,每一片花瓣、每一株小草都清晰可见。
主要技术特点包括:
— 场景面积达6400万平方米,超高细节
— 整个场景可以完全自由浏览,并支持鸟瞰、漫步模式
— 先进视觉技术:动态天空、体积云、阳光散射、景深、环境光遮蔽
— 所有植被、岩石均为实时渲染,而非贴图
— 用户可控的动态天气
— 支持立体3D、多屏幕
— 极限硬件稳定性测试
— 基准测试预设
— 监视每一帧画面对应的GPU温度和频率
— 多平台支持:Windows、Linux、Mac OS X
— 支持命令行自动执行
— CSV格式可定制报告
Unigine Valley分为基础版、高级版、专业版三个版本,其中基础版免费,支持测试预设、自定义设置、GPU监视、交互模式,不支持循环测试(也就是拷机模式)、命令行、CSV报告,对于普通用户和一般评测足够用了。
Unigine Valley的场景面积达6400万平方米,超高细节,对显卡渲染提出了很大的考验,在未来的游戏中,类似的情况将会越来越多。GTX980在极端HD模式下达到67.6FPS,和GTX780Ti相当,这个成绩还有进步的余地。
《孤岛危机3》支持大量的高端图形选项以及高分辨率材质。在游戏中,PC玩家将能看到一系列的选项,包括了游戏效果、物品细节、粒子系统、后置处理、着色器、阴影、水体、各向异性过滤、材质分辨率、动态模糊以及自然光。技术主管Marco Corbetta表示之所以《孤岛危机2》并不包含这么多的选项,是因为开发主机板的开发组实在是搞的太慢了。
● 实时体积烟云阴影(Real-Time Volumetric Cloud Shadows)
实时体积烟云阴影(Real-Time Volumetric Cloud Shadows)是把容积云,烟雾和粒子阴影效果结合起来的一种技术。和之前的类似技术相比,实时体积烟云阴影技术允许动态生成的烟雾拥有体积并且对光线造成影响,和其他物体的纹理渲染互动变化。
● 像素精度置换贴图(Pixel Accurate Displacement Mapping)
像素精度置换贴图(Pixel Accurate Displacement Mapping)可以让CryEngine 3引擎无需借助DX11的细分曲面技术即可一次渲染出大量没有明显棱角的多边形。此前crytek曾透露过正在考虑在主机上实现类似PC上需要DX11硬件才能实现的细分曲面效果,看来此言非虚,新型的位移贴图技术来模拟细分曲面的效果。虽然实现原理完全不同,但效果看起来毫不逊色。
极度精细逼真,完全嵌合的植被(Tessellated Vegetation)
● 实时区域光照(Real-Time Area Lights)
实时区域光照(Real-Time Area Lights)从单纯的模拟点光源照射及投影进化到区域光照的实现,以及可变半阴影(即投影随着距离的拉长出现模糊效果),更准确的模拟真实环境的光照特性。
● 布料植被综合模拟(Integrated Cloth & Vegetation Simulation)
布料植被综合模拟(Integrated Cloth & Vegetation Simulation)其实在孤岛危机1代中植被已经有了非常不错的物理效果,会因为人物经过而摆动,但是这次crytek更加强化了这方面的效果,还有就是加入了对布料材质的物理模拟,这方面之前只有nvidia的physx做得比较好。
● 动态体积水反射(Dynamic Water Volume Caustics)
动态体积水反射(Dynamic Water Volume Caustics)孤岛危机1和2基本上在水的表现上集中在海水,很少有湖泊和类似大面积积水潭的场景,而这次crytek实现了超远视野的水面动态反射。动态体积水反射可以说是孤岛危机2中的本地实时反射的一个延伸,是结合静态环境采样和动态效果的新的水面反射技术。
绝密细分的蟾蜍惊艳绝伦,完全可以以假乱真!
作为新一代DX11游戏的画质标杆,孤岛危机3相比上一代对显卡提出了更高的要求,而在这款代表着最尖端画质的游戏显卡优化做的非常出色,我们可以看到GTX980明显优势领先上一代旗舰产品!
这些年我们看到了不少形态各异的劳拉,从丰乳肥臀的动作游戏主角到喜欢探索亚特兰蒂斯文明的睿智贵族。不过我们从未见过这样的劳拉。Crystal Dynamics的《古墓丽影9》让我们看到了一个参加初次探险的年轻劳拉,她遭遇海难被困在刀枪林立的小岛上,必须将自己的智谋和求生欲望提升到极限。
剧情介绍:故事从年少时期的劳拉开始,劳拉所乘坐的“坚忍号”仿佛是被宿命所呼唤,在日本海的魔鬼海遭遇到了台风,不幸搁浅。劳拉也被迫到岛上开始自己的求生经历。
古墓丽影9的游戏画面较之前代上升了不少,游戏要求也提高了不少。
这是我们开启不同画质的游戏截图对比,可以看出“高”特效的画质已经非常不错了。
古墓丽影9一开始就对A卡的支持非常到位,而N卡驱动后来也进行了不断的更新,游戏性能得到大幅提升。但在此次Benchmark测试中,Maxwell架构的几款显卡包括GTX980在内依然发挥的不是很理想,还需要在后续版本和驱动中优化才能达到非常好的状态。
由EA DICE工作室开发的《战地3》采用了最新的“寒霜2”引擎,完美支持DirectX 11,并且拥有强大的物理效果,最大的亮点还是光照系统,其渲染的场景已近乎乱真的地步,视觉效果堪称绝赞。游戏还支持即时昼夜系统,为玩家营造一个亲临现场的真实环境。
寒霜2引擎最大的特点便是支持大规模的破坏效果。由于考虑到游戏的画面表现以及开发成本,DICE放弃了以只支持DX9的WINDOWS XP操作系统。另外由于该引擎基于DX11研发,向下兼容DX10,因而游戏只能运行于WINDOWS VISTA以上的的操作系统。
在《战地3》中,“寒霜引擎2”内置的破坏系统已经被提升至3.0版本,对于本作中的一些高层建筑来说,新版的破坏系统将发挥出电影《2012》那般的灾难效果,突如其来的建筑倒塌将震撼每一位玩家的眼球。
《战地3》采用了ANT引擎制作人物的动作效果。在此之前,ANT引擎已在EA Sports旗下的《FIFA》等游戏中得到应用,不过在FPS游戏中使用尚属首次。相较于Havok等物理引擎,用ANT引擎可以花费较少的精力制作出逼真的效果。举例来说,战士在下蹲时会先低头俯身、放低枪口,而不是像以前的游戏那样头、身、枪如木偶般同时发生位移。此外,ANT引擎也可以让电脑AI的行动更加合理。但这款大作目前并不能良好的兼容120Hz3D以及红蓝3D模式。
寒霜2引擎大作战地三,是为数不多的画面可以挑战Crysis的游戏大作,而对核心和显存的要求已经超越了Crysis!越是要求变态的游戏,旗舰级显卡就越喜欢,这款游戏N卡整体占优,GTX980/970和A卡旗舰相比优势明显。
游戏介绍:《地铁2033》(Metro 2033)是俄罗斯工作室4A Games开发的一款新作,也是DX11游戏的新成员。该游戏的核心引擎是号称自主全新研发的4A Engine,支持当今几乎所有画质技术,比如高分辨率纹理、GPU PhysX物理加速、硬件曲面细分、形态学抗锯齿(MLAA)、并行计算景深、屏幕环境光遮蔽(SSAO)、次表面散射、视差贴图、物体动态模糊等等。
开启景深,模拟镜头感
画面设置:《地铁2033》虽然支持PhysX,但对CPU软件加速支持的也很好,因此使用A卡玩游戏时并不会因PhysX效果而拖累性能。该游戏由于加入了太多的尖端技术导致要求非常BT,以至于我们都不敢开启抗锯齿进行测试,只是将游戏内置的效果调至最高。游戏自带Benchmark,这段画战斗场景并不是很宏大,但已经让高端显卡不堪重负了。
测试说明:如果说是CRYSIS发动了DX10时代的显卡危机,那地铁2033无疑是DX11时代的显卡杀手!地铁2033几乎支持当时可以采用的所有新技术,在画面雕琢上大肆铺张,全然不顾显卡们的感受,和CRYSIS如出一辙。然而CRYSIS靠着特效的堆积和不错的优化,其惊艳绝伦的画面和DX9C游戏拉开了距离,终究赚足了眼球;而地铁则没有这么好运了,画面固然不差,BUG却是很多,招来了大量的非议。
地铁2033,一款销量惨淡,游戏性被人遗忘但却家喻户晓的游戏,DX11游戏中的奇葩。这款游戏本来是A卡优势项目,但GTX980/970依然凭借不俗的实力领先对手。
游戏引擎开发商BitSquid与游戏开发商Fatshark近日联合公布了一个展示DX11强大技术的DEMO。这个名为《StoneGiant》(石巨人)的DEMO,可以让玩家来测试自己PC显卡的DX11性能。BitSquid Tech即将提供PC平台的引擎,并且大概在今年第三季度将提供PS3和Xbox 360等其他平台的引擎。
画面设置:StoneGiant是一款技术演示Demo,画面做的非常精美,进入之后可以选择开启关闭Tessellation以及DOF(DX11级别景深)进行测试,这两项技术都十分消耗资源,尤其是同时打开时。其中Tessellation技术对画质的改善最为明显,测试时默认开启Tessellation、打开DOF进行测试。
测试方法:自带Benchmark。
看得出来,A卡的“压力”确实很大,Tessellation特效使用的越多,其表现就越差,这是架构特性使然,但总的来说和上代相比进步很多,和N卡的差距已经越来越小了。
《Aliens vs. Predator》同时登陆PC、X360和PS3,其中PC版因为支持DX11里的细分曲面(Tessellation)、高清环境光遮蔽(HDAO)、计算着色器后期处理、真实阴影等技术而备受关注,是AMD大力推行的游戏之一,但是这样的主题难免让本作有很多不和谐的地方,暴力血腥场面必然不会少!发行商世嘉在2009年11月就曾明志,表示不会为了通过审查而放弃电子娱乐产品发行商的责任,因为游戏要维持“异形大战铁血战士”这一中心主题,无论画面、玩法还是故事线都不能偏离。
画面设置AVP原始版本并不支持AA,但升级至1.1版本之后,MSAA选项出现在了DX11增强特效当中,当然还支持Tessellation、HDAO、DirectCompute等招牌。该游戏要求不算太高,所以笔者直接将特效调至最高进行测试。
测试方法:游戏带Benchmark,其中测试画面颇代表意义,很好的体现了Tessellation异形身体以及HDAO等高级特效,希望这些特效能让系统发挥所有潜力。
AVP测试环节中GTX980表现一般,尤其是在2560分辨率下仅仅和R9 290X平分秋色,A卡整体表现很不错,这主要是R9 290X 512bit大位宽和核心强劲的像素渲染速度的功劳!
通过测试和与其他N卡的对比我们发现GTX980/970性能方面足以应付市售主流大型3D游戏,下面进入功耗噪音温度测试环节。
GTX980 Furmark
GTX970 Furmark
2D空闲状态,GTX980整机功耗测得75W,Furmark显卡满载状态整机功耗277W,GTX970整机功耗测得75W,Furmark显卡满载状态整机功耗256W,和上一代的GTX780Ti相比不仅性能更强,而且功耗更低,能效比大幅提升!
公版GTX980温度测试
索泰GTX970温度测试
环境温度大约22摄氏度,此时公版GTX980空闲时GPU核心温度为45摄氏度,用Furmark满载十几分钟以后,测得最高温度为81摄氏度。此时索泰GTX970空闲时GPU核心温度为45摄氏度,用Furmark满载十几分钟以后,测得最高温度为65摄氏度。三风扇散热器的散热能力确实比单风扇公版要强不少!
环境噪音40分贝左右,相距15cm,测得公版GTX980的待机噪音为45分贝,满载以后最高为49分贝。测得索泰GTX970的待机噪音为45分贝,满载以后最高为50分贝。在比较安静的环境中,如果将其放置在机箱中,相距1M几乎听不到显卡风扇的声音。
超频不仅可以获得免费性能,也是检测显卡稳定性的一项重要手段,所以重要产品的测试超频环节是必不可少的。GTX980/970默认性能非常强大,超频潜力又怎么样呢?我们下面通过实际测试验证一下即可见分晓。
● GTX980显卡超频性能测试
GTX980超频非常简单,因为显存频率已经非常高了,所以直接提高核心频率即可实现性能的提升。默认GTX980的3Dmark得分5618,超频220MHz以后提升到了6163,提升幅度达到了9.7%!
● GTX970显卡超频性能测试
GTX970也是毫无压力,超至1256MHz运行稳定,默认GTX970的3Dmark得分是4819,超频后5151,性能提升也是非常可观,看来Maxwell架构的稳定性经得起考验。
在挖掘架构潜力的路上,Maxwell 初代迈出了重要的一步,从它身上我们不难看出工程师在背后付出的极大努力,幸运的是他们努力的方向是正确的,而每瓦特性能提升必然是后PC时代显卡大合唱的主旋律。只要功耗发热可以控制,要让性能达到更高的水平就简单多了,堆叠晶体管对于NVIDIA或者AMD这样极具经验的芯片厂商来说并不是什么难事。
● GTX 980/970优缺点:
买它的理由:采用了Maxwell架构,GTX 980/970可以说是近年来最为节能的高端产品,索泰GTX970的温度测试更是让我们刮目相看。与此同时综合性能方面却超过了GTX780Ti!和对手同为28nm的高端显卡R9 290X相比,优势更是非常明显!。
不买的理由:GTX980/970核心面积相对较小,制造工艺成熟,产能应该不成问题,成本也应该较低。虽然官方定价GTX980 549美元(中国定价3999人民币),GTX970 329美元(中国定价2499人民币)算是相当厚道了,但据说GTX780、GTX770将停产,库存清理的时候也会有较大的降价,而GTX760定价降到219美元……
● 全文总结:
无论是最新好莱坞大片电影中的较好视觉特效、近乎照片般逼真的 3D 游戏环境和栩栩如生的游戏人物还是图像与视频分辨率更高的新媒体网站,后互联网PC时代最大的特征就是给予每个人更加精彩图形效果。支撑这一切的就是图形处理器的不断发展。
GTX980/970的发布证实了笔者之前的猜测,Maxwell仅凭256Bit的GM204就轻松搞定了自家旗舰级核心GK110的各种衍生版本,这让我们对GM210更加充满了期待,或许这一代真能出现单芯挑战双芯的局面?无论如何,高端显卡终于不再是怒吼的怪兽,而是向着实用和节能方向发展了。希望AMD也能拿出与之抗衡的产品来,这样N饭才能买到更便宜的N卡!■ <