Maxwell超级核弹 GTX Titan X首发评测
上世纪60年代初期,大型主机的问世标志着并行计算机诞生,随后我们看到计算机体系越来越成熟。高性能计算机甚至体现了一个国家在高科技领域的发言权,其经济发展速度和结构也与高性能计算机的计算能力息息相关。
1965年时任仙童半导体公司研究开发实验室主任的摩尔绘制数据时,发现了一个惊人的趋势:每个新芯片大体上包含其前任两倍的容量,每个芯片的产生都是在前一个芯片产生后的18-24个月内。只要“光刻”的精度不断提高,元器件的密度也会相应提高,从而计算能力相对于时间周期将呈指数式的上升。摩尔定律虽然算不上什么物理定律,但在显卡行业却一直延续着它的神话。即使是在28mn工艺停滞数年之后,显卡的计算能力依然在不断翻番。
今天NVIDIA再度发布了年度最强单核显卡——GeForce GTX Titan X,它的问世标志着显卡运算能力的又一次突破,前几年我们还在为单显卡浮点运算能力首次突破TFLOPS而惊叹,现在这款显卡的单精度已经可以达到恐怖的7TFLOPS了!
目前GeForce GTX Titan X无疑是世界上性能最强的单芯显卡,正式发布之前NVIDIA CEO黄仁勋就表示,GeForce GTX Titan X采用了NV最新的Maxwell架构优异GPU——GM200,核心集成的晶体量比双芯显卡GTX Titan Z还要多出了10亿,单卡显存容量更是高达12GB!这让我们对它的性能异常期待,想必大家也都非常好奇在当今各种自称”卡皇“的诸强中,它究竟处在什么样的位置吧!
文章开头我们已经提到过,GeForce GTX Titan X仍是一款采用NVIDIA Maxwell架构GPU的产品,从某种层面上来说,这意味着GM200只是GM107的衍生品而已。不过话说回来,在第二代Maxwell架构GPU到来之后,NVIDIA的GPU架构师再次在能效比利用方面突破了难关。下面,我们就进入GeForce GTX Titan X的核心架构解析部分,帮助大家全面了解Maxwell架构的优异GPU产品——GM200。
Maxwell SM框图
自Maxwell架构GPU问世之后,它的全新设计可大幅提高每瓦特性能和每单位面积的性能。虽然Kepler SMX设计在这一代产品中已经相当高效,但随着它的发展,NVIDIA的GPU架构师再次在能效比利用方面突破了难关。它在控制逻辑分区、负荷均衡、时钟门控粒度、编译器调度、每时钟周期发出指令条数等方面的改进以及其它诸多增强之处让Maxwell SM(亦称“SMM”)能够在效率上远超Kepler SMX。
GM204核心逻辑架构图
我们知道,GM204拥有4组GPC、16个Maxwell流式多处理器(SMM)以及4个64bit显存控制器,并随之搭配了曾经前所未有的2MB L2。而搭载GM204核心的GTX 980显卡在性能以及能耗比方面的卓越表现各位也有目共睹。但是GM204可不是Maxwell架构GPU中的最强、最完整的核心,因为GeForce GTX Titan X搭载着全新的GM200核心来到了我们面前。
从上面这张GM200核心逻辑架构图中我们可以看到,GeForce GTX Titan X所采用GM200核心在规格上要比GTX 980的GM204强大许多,拥有包含6组GPC、24个Maxwell流式多处理器(SMM)以及6个64bit显存控制器(共计384bit)。而且,与之相搭配的L2容量也增加到了3MB,比之前的任何GPU设计都大,十分有效地降低了显存带宽需求,确保了DRAM带宽不成为瓶颈。
这样算下来,GeForce GTX Titan X的GM204核心共计拥有3072个CUDA、192个TMUs、96个ROPs以及3MB L2,显存位宽也达到了384bit,而核心频率则被设定在了1002/1076MHz。这样的规格使GM200毫无疑问的成为了NVIDIA旗下有史以来规格最为强大的桌面级GPU。不过,这仅仅是GeForce GTX Titan X的GPU核心规格,NVIDIA还赋予了这款显卡12GB GDDR5的超大显存容量,这样的显存容量搭配规格强大的GM200核心,自然也会让GeForce GTX Titan X成为目前最为强大的单芯显卡产品。
下面,我们就一起来看一看GeForce GTX Titan X与AMD、NIVIDIA这两家的旗舰、次旗舰显卡规格对比表格。
各位可以看到,GeForce GTX Titan X在规格上确实相当强悍,其中GTX Titan X的晶体管数量、流处理器数量以及显存容量这三个方面可以说是目前所有单芯显卡中最强的。但这样强的规格,并没有让GeForce GTX Titan X的功耗大幅增加,其官方提供的250W TDP只比GTX 980高了85W,而与AMD的旗舰显卡R9 290X相比则处于同一水平线上。这自然是由两点因素决定的,一是相当成熟的台积电28nm工艺,另一个就是优秀的Maxwell架构。
虚拟现实(VR)是当今游戏业界中的热门话题,自从电影《The Lawnmower Man》(《割草者》) 上映之后之后,首次现身的虚拟现实 (VR) 名声大噪。当时的虚拟现实不但图形效果糟糕、游戏体验肤浅,而且运动追踪技术也处在萌芽阶段,因此导致动作迟滞,这无疑会使观看者感到恶心。
随着科学技术的日益进步,相对以往来说目前我们已经更深入地了解了人脑,这就允许我们更好地打造出可最大限度减少恶心症状的虚拟现实体验,而技术上的改进则能够提供照片般逼真的图形效果,带来真正令人身临其境的游戏体验。从超强的GPU到高密度显示器,虚拟现实现已得到充分发展,变成了一种让人乐此不疲的卓越体验,哪怕是热情洋溢的描述也不足以刻画出它的风貌。
早在几年前,NVIDIA一直与Oculus等公司密切合作以改善虚拟现实体验。很快NVIDIA就发现,最大限度减少游戏动作与屏幕显示之间的延迟,这对临场感和避免恶心症状来说至关重要。
为此,NVIDIA开发了多项新技术,这些技术可大幅改善虚拟现实体验,使基于Maxwell架构GPU的显卡最擅长提供流畅而有趣的虚拟现实体验。
从输入 (当你移动头部) 到输出 (当你看到游戏中出现动作) 的标准虚拟现实流水线大约耗时 57 毫秒 (ms)。然而,要获得良好的虚拟现实体验,这一延迟时间应该低于 20ms。目前,绝大部分延迟时间是 GPU 渲染场景所花费的时间以及将场景显示在头盔显示器上所花费的时间 (大约 26ms)。
为了降低这一延迟,NVIDIA把预先渲染的帧数量从 4 帧减少到 1 帧,从而最多缩短了 33ms 的延迟,而且NVIDIA开发的 Asynchronous Warp 已接近完工。Asynchronous Warp 是一种可大幅改善头部追踪延迟的技术,能够确保玩家察觉不到头部晃动与画面渲染之间的延迟。
这两者相结合,再加上 NVIDIA 开发者的进一步调整,这一虚拟现实流水线现在的延迟只有 25ms。随着进一步工作的开展和更新技术的问世,我们预计消费版本的虚拟现实将会拥有更快的响应速度。
虚拟现实的另一项要求是高帧速率。目前,想要实现流畅的游戏体验,每只眼睛的帧速率需要在 960x1080 分辨率下达到每秒 75 帧才行,实现这种水平的性能相当于 4K 渲染,因此性能最强的旗舰级N卡自然是必不可少的。
为了给虚拟现实游戏玩家带来更为出色的体验,NVIDIA还专门开发了VR SLI技术,它可以让每一路GPU只负责虚拟现实头戴显示器的一只眼睛画面,让游戏可充分利用两颗GPU,提升帧率。
速度与画质一直都是3D游戏追求的两大终极目标,但很多时候,速度与画质总是鱼和熊掌不可兼得,想要开启高级特效必然会损失帧数导致流畅度下降,因此就需要硬件厂商不断的研发出性能更强的GPU,也需要软件厂商研发出更高效率的图形技术。
抗锯齿(Anti-Aliasing,简写为AA)就是这样一项很特别的图形技术,它能够明显的改善游戏画面表现力,同时也会让游戏帧数大幅下降。所以多年以来,不论是显卡厂商还是游戏开发商,都在努力的改进抗锯齿效率,开发出新的抗锯齿模式,让游戏画质变得更好,同时也不至于让性能损失太多。
所以,大家一定听过或者见过以下这些抗锯齿中的一种甚至多种,如:MSAA、CSAA、CFAA、FXAA、TSAA……今天笔者就为大家详细解读3D游戏中的锯齿是如何产生的,回顾最常见的MSAA技术的原理和优缺点,最后介绍NVIDIA新开发的一种效率极高的抗锯齿技术——MFAA。
● 为什么会产生锯齿?
我们知道,显示屏是由一个个方块像素点组成的,这些方块像素点在显示斜向或圆形物体时,会不可避免的在边缘产生锯齿状的线条。就像马赛克一样,只不过是薄码而已……
● 高分屏能否自动消除锯齿?
当显示器的分辨率或显示屏的PPI(每英寸的像素数)足够大时,人眼将无法看清具体的像素点,但相邻像素之间的色彩差异也会产生明显的错落感,高分辨率/PPI由于像素变得非常细腻,可以同比缩小锯齿,但仍不能完全消除锯齿。
● 抗锯齿技术是如何抵抗锯齿的?
前面说过,方块像素显示斜向或圆形物体时,锯齿是无可避免的,抗锯齿也无法消除锯齿,但它能通过欺骗人眼的方法,让锯齿的棱角显得不那么明显:
如上图所示,方法就是对锯齿所在位置的像素及相邻像素进行比对采样处理,计算出该像素应该显示多少比例的灰阶值,而不是“非黑即白”的显示模式。比如4xAA就是对每个像素采样4次,原本该像素只有0、1两种显示模式,开启4xAA后就能显示0、1/4、1/2、3/4、1五种模式。
如此一来,棱角分明的锯齿边缘,就会显得比较模糊,色彩过渡比较自然,就不会那么刺眼了,锯齿一定程度上被消除了。
● MSAA占据主导位置,4xMSAA使用最广泛
MSAA的全称是Multi Sampling Anti-Aliasing,多重采样抗锯齿。MSAA只对Z缓存和模板缓存中的数据进行采样处理,可以简单理解为只对多边形的边缘进行抗锯齿处理,而忽略非边缘像素(因此可能会在一些特殊位置残留一些锯齿)。这样的话,相比SSAA对画面中所有数据进行处理,MSAA对资源的消耗需求大大减弱,因此MSAA在游戏中使用最广泛,多年来一直占据主导位置。
通常在游戏中会提供2x、4x、8x三种抗锯齿级别,一般最常用的就是4x这种模式,因为4x和8x的画质差别已经很小了。
● 开启抗锯齿性能损失有多大?
可以看出,4x抗锯齿虽然效果优秀,但性能损失比较大,而2x性能损失最小,可以说效率最高。
● NVIDIA的黑科技:超高效能的MFAA
鉴于高倍MSAA性能损失较大的问题,NVIDIA在MSAA的基础上开发出了一种“投机取巧”的技术:Multi-Frame Sampled Anti-Aliasing(MFAA),从字面上来看它是MSAA的一个变种,可以翻译为“多帧多重采样抗锯齿”。
上图为MFAA的工作原理,奇数帧在水平方向进行一次2xMSAA采样,偶数帧在垂直方向进行另外一次2xMSAA采样,然后通过软件算法将其合成,最终的采样结果与直接进行4xMSAA没有区别。
可能会有人担心,对相邻的两帧进行两次2xMSAA采样合成会不会造成画质损失,尤其是当画面运动幅度较大时?其实MFAA都是对物体边缘进行采样,无论运动幅度多大都有固定的几何轨迹,因此两帧始终会在固定的像素点进行合成,不会产生错乱,合成之后的采样效果自然也不会与MSAA有啥区别。
● 4xMSAA的画质与4xMFAA完全相同,4xMSAA的性能接近与2xMSAA
4xMFAA的画质与4xMSAA没有区别
当然,通过算法将两次2xMSAA合成为4xMFAA,性能肯定会有损失的,NVIDIA官方称性能损失会在5%以内,这样4xMFAA的性能自然会远超4xMSAA,只是略低于2xMSAA。同理可以实现8xMFAA的性能远超8xMSAA,略低于4xMSAA。
4xMFAA的帧数比4xMSAA高30%
通过这样一个简单而有创意的技术,可以免费让NVIDIA显卡的抗锯齿性能提高30%,简直逆天了!
NVIDIA新开发的高效能抗锯齿技术——MFAA,它能够以2xMSAA的性能,提供4xMSAA的画质,从而以较小的性能损失提供更完美的游戏画质。这样当玩家们玩类似《显卡危机3》、《男朋友4》这样的优异大作,由于FPS本身较低不敢开高倍AA时,就可以开启MFAA技术,让速度与画质兼得。
但并不是所有的游戏都像显卡危机一样吃显卡,绝大多数游戏对显卡要求不是很高,比如《穿越火线》、《英雄联盟》一类的游戏中端显卡就能动辄跑100FPS以上,此时显卡性能有些浪费,那有没有通过牺牲一部分FPS来提高画质的方法呢?现在笔者就为大家介绍NVIDIA的另外一项黑科技——Dynamic Super Resolution(DSR),动态超级分辨率
简单来说,DSR技术可以在普通的1080p显示器上显示4K级别的游戏画面,当然NVIDIA即便掌握了火星科技也不可能将1080p显示器变成4K显示器,该技术只是在后台以4K分辨率渲染游戏画面,通过动态缩放的方式显示在1080p显示器上,虽然实际分辨率依然是1080p,但游戏画面却要比原生1080p分辨率渲染出来的好很多。
首先我们来看一张开启DSR前后的游戏画面截图:
可以看出,开启DSR之后的草丛边缘显示效果要好,然后再通过显卡渲染流程为大家分析出现差异的原因:
可以看到,DSR模式在GPU内部是以真4K分辨率进行渲染的,只不过在像素输出阶段将4个像素合成为1个像素,最后才以1080p分辨率输出。4K的分辨率是1080p的4倍,渲染精度自然大幅提高,输出像素的采样率相当于是4倍,最终的画面自然会更加柔和平滑一些。
看到这里的示意图,相信资历较老的玩家会发现DSR技术有些类似于最早期的SSAA(超级采样抗锯齿),就拿前面的示例图来说,原理可以说是完全相同的,但区别是SSAA只针对几何物体的边缘,而DSR则是针对全屏所有像素进行二次采样,毕竟内部就是以4K分辨率进行渲染的。
点击查看大图可以看到开启DSR的明显区别
DSR对游戏有要求吗?
DSR技术的工作模式非常简单,它在系统内部模拟出了4K分辨率的显示器,游戏就会以为电脑拥有一台4K显示器,从而以4K模式渲染出高精度的画面,最后GPU再重新采样并缩放成1080p分辨率输出,因此DSR技术的唯一要求就是游戏本身能够支持4K分辨率。
如何开启DSR技术?
DSR技术支持几乎所有的PC 3D游戏,玩家可以在最新版的343驱动控制面板中开启,或者使用GeForce Experience自动扫描并优化游戏,如果您的显卡较好,那么像暗黑3这样要求不是很高的游戏默认就会开启DSR技术。
DSR除了4K模式,还支持自定义分辨率,如2K模式:
当然,如果显卡性能还不够强的话,DSR技术允许玩家进行自定义设置,将渲染模式从4K降为2K,以2K模式渲染出来的画质缩放成1080p分辨率输出后,画质依然会有明显提升,同时性能损失不至于太大。
每一个行业都有自己的“圣杯”,例如能源方面的核聚变、医药方面的癌症特效药以及空间探索方面的超光速推进力。 任何领域中“圣杯”的定义都是难以实现和代价高昂的,或者完全是科幻产物。也许这就是我们之所以对此心驰神往的原因所在。
计算机图形领域的“圣杯”就是“实时全局光照”。全局光照是一种渲染游戏环境的方法,它通过模拟光线的行为,从而体现各个表面之间的光线反射效果。然而以光子级别进行自然仿真处理是一项代价高昂的事业,电影中仅仅是有选择地利用全局光照来渲染复杂的CG场景,就是因为这个原因。
这一情况即将有所改变。凭借次世代Unreal Engine 4(虚幻4)引擎,游戏将首次具备实时全局光照渲染效果。而这项技术是由NVIDIA图形工程师与EPIC开发者共同完成的,NVIDIA将其称为Voxel Global Illumination(VXGI,立体像素全局光照)。
● 什么是全局光照?它为什么对游戏逼真度来说如此重要?
首先来看一组对比截图:
传统直接光照效果
全局光照效果
区别很明显吧?通俗的讲,直接光照就是简单的模拟一个或多个光源的照射效果,在相应的位置投射出光和影;而全局光照就是考虑到了光线的直射与尽可能多的漫反射效果,最终呈现出来的光影效果更接近于现实世界。
全局光照指的是对场景周围光线反射的计算。全局光照负责制作出现实环境中的许多细微着色特效、气氛以及有光泽的金属反射效果。自1995年在虚幻1中采用实时直接光照以来,虚幻4引擎中的实时全局光照是在光照方面实现的最大突破!
● 在没有全局光照技术之前,游戏是如何实现更逼真光影效果的?
也许有人会说了,现有的游戏其实光影效果还是不错的,并不像上图1所示那么差。没错,上图的对比是比较直接的、没有附加特效的,其实游戏中还有其它的方法来提高画面真实度,最常见的就是Ambient Occlusion(AO,环境光遮蔽)技术。
目前非常先进的水平环境光遮蔽技术 (Horizon Based Ambient Occlusion,HBAO)
但不管是什么级别的AO,都是对光照与阴影的一种模拟,可以说是预处理,开发者认为此处的阴影的颜色应该深一些、或者浅一些、或者柔和一些,所以才会加上去的,而不是通过复杂的光影算法来直接生成的。
● 喜欢浓妆艳抹还是清新素雅?
我们知道传统的图形渲染分为立体建模(顶点着色)和像素着色两个部分,其中像素都是2D平面状的,平铺在模型表面,而光影效果都是需要预先计算每个像素的光照或阴影,就是根据游戏的需要来改变像素颜色。
这种对每个像素反复进行涂抹修饰的做法,既不逼真、也很低效,因为像素显示的并不是真正的光影效果,而是我们认为应该显示的效果,而且越来越多的预处理特效对GPU的ROP(光栅单元)和显存造成了很大的负担。
● VXGI立体像素全局光照:2D平面像素变为3D立体像素
NVIDIA使用了一种非常巧妙的方法,从根本上改变了虚假的光影处理流程。
传统游戏中,所有间接光照(某一表面反射出来的光线)是预先计算的,存储于有光线贴图之称的纹理内。光线贴图让游戏场景能够具备类似全局光照的效果,但是因为它们是预先计算的,所以只在静态物体上有效。
VXGI完全抛弃了将光线贴图存储于2D纹理中的做法,而是将其存储于立体像素中。立体像素就是三维像素,它具有体积,类似于乐高积木。
立体像素采用树状结构分布,以便能够对其进行高效地定位。当渲染一个像素时,它能够有效地询问立体像素树: “哪一个立体像素对我来说是可见的?”根据这一信息,就能够决定接收的间接光线数量(全局光照)。
VXGI完全消除了预先计算的光照,以存储于树状结构的立体像素取而代之,这种树会根据每一帧而更新,所有像素均利用它来收集光照信息。
● VXGI立体像素全局光照:每颗立体像素都是“手电筒”
现在到了最关键的地方,立体像素看起来好像比马赛克更加稀疏,但是所有可见的立体像素都可以执行锥形聚焦光线追踪(给出起点、方向和角度),这样就能沿着小范围的锥形路径生成大致的光线漫反射效果。
每一个立体像素都可以进行多个锥形追踪,游戏中需要根据实际光源的大致方向及反射表面的情况,来设定锥形范围及追踪数量。
实现最终的效果没有捷径,就是通过GPU强大的运算能力,让锥形追踪足够快,以使我们能够实时地对每个立体像素执行一次或多次追踪。对每个像素执行六次宽幅锥形追踪 (每个主要方向各一次) 会生成大致的二次反射间接光照效果。以镜面反射方向执行窄幅锥形追踪能够呈现金属反射效果,在这种反射效果中,每个有光泽的表面都能够反射出整个场景。
● 虚幻4引擎完美支持VXGI,Maxwell显卡运行效率更高
值得一提的是,VXGI提算全局光照技术严重依赖于GPU的浮点运算(通用计算),而不是传统的图形流水线,因此大大减轻了GPU光栅单元的负担。另外,NVIDIA称Maxwell架构对VXGI的运算进行了针对性的优化,新一代显卡在执行体素全局光照时的效率会更高。
VXGI现已加入UE4豪华DEMO
虚幻4引擎已经完整支持了VXGI技术,最新的虚幻4技术演示Demo已呈现出了非常惊人的光照效果,不久之后,将会有一大批使用虚幻4引擎的游戏大作问世,届时Maxwell架构的显卡将会有更佳的性能表现。
效果开高游戏帧数下降,特效开低画质惨不忍睹,如何平衡是一件令游戏玩家头疼不已的事。一般测试的时候我们都是将设置手动调整到最高,目的是压榨显卡的全部性能。但实际游戏的时候,根据显卡的性能和游戏的需要,我们并不需要这么做,而在画面质量和游戏速度两者之间达到非常好的平衡才是我们需要的结果,为了解决这个问题,NVIDIA发布了GeForce Experience——一款智能设置游戏参数的软件。
这款软件在NVIDIA官网提供下载,安装之后第一次运行,GeForce Experience会从NVIDIA的云端下载用户所需的游戏设置。
▲ 通过云端硬件和游戏的数据匹配交换,GeForce Experience可以优化系统。
▲ GeForce Experience的系统要求,支援主流硬件和系统
GeForce Experience支持手动调整游戏设置,也支持一键智能优化,云端会根据用户的电脑硬件配置和游戏的要求设置特效的高低,保证所有GeForce用户非常好的的游戏体验。
GeForce Experience 现已优化了支持上百款游戏,下载用户数量也早就超过了千万。而GeForce Experience(GFE软件)1.7之后的版本都加入了一个重大更新,那就是备受期待的Shadow Play。
Shadow Play是GFE中的一个简单易用的游戏录制模块,可充分利用 GeForce GTX 600 和 700 系列 GPU 中内置的 H.264 编码器达到高效率录制游戏录像的功能。通过利用这一硬件编码器,ShadowPlay 对游戏帧速率的影响大大低于传统的录制应用程序,传统应用程序会给 CPU 造成巨大压力。由于帧速率更高,玩家可以享受到更加流畅的游戏体验,而通过以 H.264 格式进行编码,ShadowPlay 避免了其它应用程序中占用数 GB 空间的大文件问题。这样便节省了空间,更重要的是,通过避免不必要的硬盘颠簸,减少了卡顿现象。
ShadowPlay演示:
● Maxwell更加卓越的视频录制功能
与之前的GeForce GPU相比,Kepler主要的技术创新之一是其基于硬件的H.264视频编码器——NVENC。通过把用于视频编码/解码的专用硬件电路集成进来(而不是使用GeForce GPU的CUDA核心),NVENC在H.264编码方面可带来大幅性能提升,同时消耗的功耗更低。
去年Q3利用Kepler的NVENC编码器实现的Shadow Play功能在游戏玩家中获得了极大的成功。因为NVENC编码器在游戏的同时自动记录几分钟的场景,所以只要玩家需要的时候按一个热键,就可以将之前几分钟的画面保存成游戏录像。这让所有GeForce GTX 600和GTX 700系列游戏玩家都兴奋不已。自从Shadow Play发布以来,捕捉的视频数量已逾300万,游戏玩家将捕捉到的视频发布到YouTube上,还有的玩家甚至在Twitch上实时流式传输自己的游戏片段。
为了提高视频性能,Maxwell采用了改进的NVENC模块,该模块编码速度是H.264实时编码的6-8倍或者Kepler实时编码的4倍,解码速度更是提升了8-10倍。换句话说在新一代Maxwell架构的显卡上,游戏同时录像,几乎感觉不到系统性能的下降。
Maxwell还具备量身定制的全新GC5功率状态,特别是能够在视频播放等轻载型使用场合降低GPU的功耗。GC5是一种低功耗休眠状态,在这些使用场合下的节能性远超之前的GPU,这对于高端显卡的意义更大。
看到GeForce GTX Titan X的外观,有人会觉得熟悉,熟悉的原因无非是这个外观设计早在首款核弹显卡GTX Titan来临时就一直沿用至今。但是,笔者相信一部分人觉得这款显卡很熟悉的原因不止于此。
早在GeForce GTX Titan BE还身处传闻中时,一位名为@控的是AK的网友发帖晒出了一款经过氧化处理的“泰坦皮”,也就是“自制版”GeForce GTX Titan BE。正是这条帖子,给予了NVIDIA灵感,于是这个设计就出现在了GeForce GTX Titan X显卡上。
核心方面,GeForce GTX Titan X搭载了一颗基于28nm工艺 Maxwell架构GM200核心,拥有3072个流处理器、192个TMUs和96个ROPs,基础核心频率为1002MHz、基础Boost频率为1076MHz。
而在显存方面,GeForce GTX Titan X的PCB正反面一共配备了24颗GDDR5显存颗粒,组成了12GB GDDR5 384bit的显存规格,而在显存频率方面,GeForce GTX Titan X的显存频率为7012MHz。
视频接口方面,GeForce GTX Titan X采用完整版本的三DP、HDMI、DVI 2.0的输出设计,虽然视频输出接口的排布有点不符合处女座同学的审美观,但这样的组合已经完全可以满足发烧玩家的需要。
为了避免在游戏测试中出现瓶颈,在本次测试中我们用Intel Core i7-4790K、华擎Z97 Extreme 6主板、8GB DDR3-1600(4GB x 2)内存组建了一套高端平台,下方表格就是本次测试平台配置表格:
参测显卡方面,除了NVIDIA新核弹显卡GeForce GTX Titan Z之外,我们在本篇评测中还选择了在去年9月份发布的NVIDIA旗舰、次旗舰显卡GeForce GTX 980、GeForce GTX 970以及AMD目前的单芯旗舰、次旗舰显卡Radeon R9 290X、Radeon R9 290。
需要注意的是,在本篇评测中除了GeForce GTX Titan X和GeForce GTX 980之外,我们使用的GeForce GTX 970、Radeon R9 290X和Radeon R9 290均为非公版产品,其频率均高于相应的公版产品。因此,我们通过软件将这三款显卡的频率进行了调整,改成了公版产品的频率。
测试内容与测试项目解析
从规格上看,我们可以毫无疑问的说GeForce GTX Titan X是一款专门为那些在4K分辨率下玩游戏的发烧友们所准备的优异单芯显卡。因此,在本篇评测中我们除了会在1920 x 1080、2560 x 1440这两个分辨率下进行测试外,还会着重进行显卡的4K性能测试,而且会在4K分辨率 + 最高画质、4K分辨率 + 最高画质 + 较高抗锯齿这两种情况下来进行显卡的4K游戏性能测试。
另外,除了对GeForce GTX Titan X显卡进行功耗、温度以及噪音测试之外,我们还将会对这款显卡进行超频测试,来给大家展示GeForce GTX Titan X在超频之后的性能。
测试项目方面,基准性能测试3DMark 11、3DMark Fire Strike之外,我们还选择了多款热门游戏。在这些游戏项目中,既有《地铁2033》、《孤岛危机3》这类的老“显卡杀手”,也有《孤岛惊魂4》、《刺客信条:大革命》这样的新作。
GeForce GTX Titan X实际运行频率监控
由于GeForce GTX Titan X支持GPU Boost 2.0,我们在GPU-Z软件上看到的GeForce GTX Titan X的基础核心、基础GPU Boost频率只是个参考值,而该卡在实际运行游戏时的频率会根据显卡温度的变动而发生变化。
所以,了解一下GeForce GTX Titan X的GPU实际运行频率是有必要的,因为在了解之后我们可以通过调节风扇转速来让GPU核心保持一个合适的运行温度,让GPU频率保持在较高的水平,来充分发挥GeForce GTX Titan X的性能。下面我们就通过Furmark拷机软件来进行显卡负载测试,并监控GPU的实际运行频率。
通过监控软件,大家可以看到GeForce GTX Titan X的核心温度从 上升至70度之前,GeForce GTX Titan X的GPU频率最高可以到达1228MHz,并在这段时间内保持在1200MHz以上(不会超过1228MHz),而当GPU温度超过70℃之后,GPU频率将会有所下降。直到降至1050MHz之后,在GPU温度维持在83℃(有限制,最高就到83℃)之后,GPU的实际运行频率将会一直维持在1.1GHz出头的水准。
了解完GeForce GTX Titan X的GPU运行频率状况之后,下面我们就进入本篇评测的性能展示环节。首先,我们来看一看GeForce GTX Titan X的基准性能测试成绩。
3DMark11的测试重点是实时利用DX11 API更新和渲染复杂的游戏世界,通过六个不同测试环节得到一个综合评分,藉此评判一套PC系统的基准性能水平。
3DMark 11的特色与亮点:
1、原生支持DirectX 11:基于原生DX11引擎,全面使用DX11 API的所有新特性,包括曲面细分、计算着色器、多线程。
2、原生支持64bit,保留32bit:原生64位编译程序,独立的32位、64位可执行文件,并支持兼容模式。
3、新测试场景:总计六个测试场景,包括四个图形测试(其实是两个场景)、一个物理测试、一个综合测试,全面衡量GPU、CPU性能。
4、抛弃PhysX,使用Bullet物理引擎:抛弃封闭的NVIDIA PhysX而改用开源的Bullet专业物理库,支持碰撞检测、刚体、软体,根据ZLib授权协议而免费使用。
测试成绩展示:
▲3DMark 11 Extreme测试项总得分(俗称的X分)
▲3DMark 11 Extreme测试项的GPU得分
在3DMark 11性能测试中,我们可以看到规格最强大的GeForce GTX Titan X轻而易举的战胜了其它4款A/N旗舰、次旗舰显卡,而且领先幅度相当多,与其它四款显卡中最优秀的GTX 980相比要高出大概三分之一。
既然针对平台不同,测试项目自然也相去甚远,三大平台除了PC追求极致性能外,笔记本和平板都受限于电池和移动因素,性能不是很高,因此之前的3Dmark11虽然有三档可选,依然不能准确衡量移动设备的真实性能。
而这次Futuremark为移动平台量身定做了专有测试方案,新一代3DMark三个场景的画面精细程度以及对配置的要求可谓天差地别。
Fire Strike、Cloud Gate、Ice Storm三大场景,他们分别对应当前最热门的三大类型的电脑——台式电脑、笔记本电脑和平板电脑。另外,在最新版的3DMark之中,我们还看到Fire Strike测试项多出了一个专为优异发烧主机准备的4K测试项目。
3Dmark Fire Strike默认性能测试成绩:
▲3DMark Fire Strike默认性能测试总得分
▲3DMark Fire Strike默认性能测试GPU得分
3Dmark Fire Strike Extreme性能测试成绩:
▲3DMark Fire Strike Extreme性能测试总得分
▲3DMark Fire Strike Extreme性能测试GPU得分
3Dmark Fire Ultra性能测试成绩:
▲3DMark Fire Strike Ultra性能测试总得分
▲3DMark Fire Strike Ultra性能测试GPU得分
在3DMark Fire Strike性能测试中,GeForce GTX Titan X同样毫无悬念的碾压了其它4款参测显卡。无论是3DMark Fire Strike测试三种测试项的哪一种,GeForce GTX Titan X的成就都持续优秀。
基准性能测试小结:在3DMark 11和3DMark Fire Strike这两个基准性能测试中,规格最为强大的GeForce GTX Titan X的表现与其它四款产品相比领先程度相当大。不过,这只是各位喜闻乐见的跑分测试结果,真正能体验出GeForce GTX Titan X性能的还得说是各种热门游戏的测试。下面,我们就进入本文的游戏性能测试环节。
《地铁2033》(Metro 2033)是俄罗斯工作室4A Games开发的一款新作,也是DX11游戏的新成员。
该游戏的核心引擎是号称自主全新研发的4A Engine,支持当今几乎所有画质技术,比如高分辨率纹理、GPU PhysX物理加速、硬件曲面细分、形态学抗锯齿(MLAA)、并行计算景深、屏幕环境光遮蔽(SSAO)、次表面散射、视差贴图、物体动态模糊等等。
《地铁2033》虽然支持PhysX,但对CPU软件加速支持的也很好,因此使用A卡玩游戏时并不会因PhysX效果而拖累性能。该游戏由于加入了太多的尖端技术导致要求非常BT,以至于我们都不敢开启抗锯齿进行测试,只是将游戏内置的效果调至最高。游戏自带Benchmark,这段画战斗场景并不是很宏大,但已经让高端显卡不堪重负了。
如果说是CRYSIS发动了DX10时代的显卡危机,那地铁2033无疑是DX11时代的显卡杀手!地铁2033几乎支持当时可以采用的所有新技术,在画面雕琢上大肆铺张,全然不顾显卡们的感受,和CRYSIS如出一辙。然而CRYSIS靠着特效的堆积和不错的优化,其惊艳绝伦的画面和DX9C游戏拉开了距离,终究赚足了眼球;而地铁则没有这么好运了,画面固然不差,BUG却是很多,招来了大量的非议。
测试成绩展示:
在《Metro 2033》Benchmark测试中,GeForce GTX Titan跑出了参测显卡中最好的成绩,即使是在4K分辨率 + 最高画质 + 最高抗锯齿的情况下,GeForce GTX Titan的成绩同样也是最出色的。
《孤岛危机3》支持大量的高端图形选项以及高分辨率材质。在游戏中,PC玩家将能看到一系列的选项,包括了游戏效果、物品细节、粒子系统、后置处理、着色器、阴影、水体、各向异性过滤、材质分辨率、动态模糊以及自然光。技术主管Marco Corbetta表示之所以《孤岛危机2》并不包含这么多的选项,是因为开发主机板的开发组实在是搞的太慢了。
● 实时体积烟云阴影(Real-Time Volumetric Cloud Shadows)
实时体积烟云阴影(Real-Time Volumetric Cloud Shadows)是把容积云,烟雾和粒子阴影效果结合起来的一种技术。和之前的类似技术相比,实时体积烟云阴影技术允许动态生成的烟雾拥有体积并且对光线造成影响,和其他物体的纹理渲染互动变化。
● 像素精度置换贴图(Pixel Accurate Displacement Mapping)
像素精度置换贴图(Pixel Accurate Displacement Mapping)可以让CryEngine 3引擎无需借助DX11的细分曲面技术即可一次渲染出大量没有明显棱角的多边形。此前crytek曾透露过正在考虑在主机上实现类似PC上需要DX11硬件才能实现的细分曲面效果,看来此言非虚,新型的位移贴图技术来模拟细分曲面的效果。虽然实现原理完全不同,但效果看起来毫不逊色。
● 实时区域光照(Real-Time Area Lights)
实时区域光照(Real-Time Area Lights)从单纯的模拟点光源照射及投影进化到区域光照的实现,以及可变半阴影(即投影随着距离的拉长出现模糊效果),更准确的模拟真实环境的光照特性。
● 布料植被综合模拟(Integrated Cloth & Vegetation Simulation)
布料植被综合模拟(Integrated Cloth & Vegetation Simulation)其实在孤岛危机1代中植被已经有了非常不错的物理效果,会因为人物经过而摆动,但是这次crytek更加强化了这方面的效果,还有就是加入了对布料材质的物理模拟,这方面之前只有nvidia的physx做得比较好。
● 动态体积水反射(Dynamic Water Volume Caustics)
动态体积水反射(Dynamic Water Volume Caustics)孤岛危机1和2基本上在水的表现上集中在海水,很少有湖泊和类似大面积积水潭的场景,而这次crytek实现了超远视野的水面动态反射。动态体积水反射可以说是孤岛危机2中的本地实时反射的一个延伸,是结合静态环境采样和动态效果的新的水面反射技术。
测试成绩展示:
在《孤岛危机3》性能测试中,GeForce GTX Titan X充分展现了自身强大的性能实力,其成绩全面领先参测的其它四款显卡产品。
这些年我们看到了不少形态各异的劳拉,从丰乳肥臀的动作游戏主角到喜欢探索亚特兰蒂斯文明的睿智贵族。不过我们从未见过这样的劳拉。Crystal Dynamics的《古墓丽影9》让我们看到了一个参加初次探险的年轻劳拉,她遭遇海难被困在刀枪林立的小岛上,必须将自己的智谋和求生欲望提升到极限。
剧情介绍:故事从年少时期的劳拉开始,劳拉所乘坐的“坚忍号”仿佛是被宿命所呼唤,在日本海的魔鬼海遭遇到了台风,不幸搁浅。劳拉也被迫到岛上开始自己的求生经历。
“高”特效的画质已经非常不错了。
测试成绩展示:
和之前的项目一样,GeForce GTX Titan X在《古墓丽影9》性能测试中跑出的平均帧数依旧明显领先其它四款产品,而且优势挺大。
《孤岛惊魂》是FPS历史上很有意义的作品,当初与《毁灭战士》、《半条命》并称为射击游戏三巨头。这款游戏第一代的制作组后来脱离育碧自立门户,创作了我们所熟知的《孤岛危机》,从此之后,《孤岛惊魂》的续作并没有带给大家太多的震撼。几年过去了,当初脱离育碧的Crytek深陷财务危机,而目前主机市场相对低迷的情势下,PC游戏厂商相对而言则滋润不少,在这个大背景下,《孤岛惊魂4》诞生了。
《孤岛惊魂4》是一款标准第一视角射击游戏,本作由育碧蒙特利尔工作室主刀,多家工作室联合制作,游戏背景这一次设定在雄壮的喜马拉雅山脉,全新的故事和角色以及新引擎、新技术力图为玩家奉上令人兴奋的游戏体验。
uplay是Ubisoft为扩展自家游戏的延伸价值而开发的,正版玩家可以在游戏过程中解锁各种成就,然后用成就点数换取特殊奖励,比如特殊套装等。同时也会提供一些收费道具给玩家购买。《孤岛惊魂4》也提供了丰富的游戏要素以及增强互动性的多人合作模式,不过对于非正版玩家而言,离线单机游戏依然保留下来。
1代的荒岛、2代荒漠和3代的绿洲都各具特色,而4代的游戏背景设定在喜马拉雅雪山,带给玩家全新体验。尽管是系列作品,不过孤岛惊魂4与前作之间基本没有联系,可以看做是独立作品,就算之前没有玩过前作的玩家也不会觉得有任何障碍。
测试成绩展示:
在《孤岛惊魂4》性能测试中,GeForce GTX Titan X的成绩同样毫无悬念的碾压了其它4款参测显卡。
《怪物猎人Online》,官方简称为MHO,是一款由CAPCOM授权,腾讯游戏和CAPCOM联合开发,腾讯游戏发行的网络游戏,以动作和角色扮演玩法为主体。《怪物猎人Online》是CAPCOM旗下《怪物猎人》的网游版,而内容则基于早前PC/XB360平台上《怪物猎人:边境Online》。
腾讯游戏在购得CryEngine3后对其进行了再开发,这让《怪物猎人Online》具有极高水准的画质。游戏暂时只在中国发行,并为PC独占。在《怪物猎人OL》的世界中,一方面玩家能够欣赏到最高清的游戏场景,感受栩栩如生的狩猎世界;另一方面,还能享受到由NVIDIA顶尖技术带来的极致细节刻画和狩猎动态效果,获得最身临其境的狩猎体验。
为了展现游戏中各种优异的光影特效和动作效果,带来最爽快的狩猎感受,NVIDIA在《怪物猎人OL》主题硬件测试程序中为玩家带来了包括:Depth of Field: Bokeh(景深技术:散焦)、Tessellation(曲面细分)、NVIDIA PhysX Clothing(NVIDIA PhysX衣料技术)、NVIDIA Hairworks(NVIDIA毛发技术)、NVIDIA HBAO+(NVIDIA新版环境光遮蔽。
测试成绩展示:
在《怪物猎人OL》性能测试中,GeForce GTX Titan X的成绩毫无疑问是最为出色的,无论是之前NV在9月份推出的旗舰卡GTX 980还是曾经和GTX Titan大战过300回合的R9 290X,与GTX Titan X相比均要弱了许多。
《刺客信条:大革命》是育碧最新出品的动作冒险类游戏,本作的背景设定于18世纪法国大革命时期,玩家将会在浪漫之都巴黎完成各式各样的冒险,游戏的地图面积非常庞大,如巴黎圣母院、凡尔赛宫等著名场所甚至将以1:1呈现,力求带给玩家最真实的体验,游戏内容也基于历史制作,虽然玩家并不能改变历史,但却有机会融入其中。此外,由于采用全新技术制作,《刺客信条:大革命》在提供了逼真游戏内容的同时,也对硬件性能提出了相当高的要求。
如此逼真的画质特效打来的“副作用”也是非常明显的,《刺客信条:大革命》的PC硬件需求可以说非常高,最低要求就已经是Core i5-2500K级别处理器、6GB内存和GTX 680/HD 7970级别显卡,推荐配置则是Core i7-3770级别处理器、8GB内存和GTX 780/R9 290X级别显卡,这回恐怕连游戏发烧友都要表示“电脑压力山大”了。
测试成绩展示:
游戏性能测试的最后一项是《刺客信条:大革命》,在这项测试中,GeForce GTX Titan X一如既往的成为了参测显卡中表现最出色的产品。不过,在这次测试时我们出现了一点“意外”......
在进行《刺客信条:大革命》测试的时候,我们遇到了这样一个“奇怪”情况。本来我们打算在4K分辨率下测试该游戏时的最高画质、抗锯齿设定为“极高”+ 4xMSAA(这是游戏内“极高”档位的默认设定),但设定好并且应用设定之后就悲剧了,这游戏画面直接变成了幻灯片,晃动鼠标都费劲.......
不过,这种情况只出现在GTX 980、GTX970、R9 290X和R9 290这四款显存容量为4GB GDDR5的显卡上,等我们将显卡换成GTX Titan X之后,这种情况却并没有发生。于是,我们就将《刺客信条:大革命》的最高画质设定降到了极高 + 2xMSAA,然后开启监控软件来监测显存使用量,结果发现这游戏在4K分辨率 + 极高画质 + 2xMSAA下已经占用了GTX Titan X 超过5GB的显存!
然后,我们将抗锯齿彻底提高到4xMSAA(画质保持不变)并重启游戏,结果发现这游戏的显存占用量变得更多了,达到了6.5GB左右,看来GTX 980、GTX970、R9 290X和R9 290在这个画质设定下运行《刺客信条:大革命》给大伙带来的“幻灯片”级体验是因为4GB GDDR5的显存不够用,已然“爆掉了”。
虽然问题的原因已经找到,但我们还想试试这个“显存信条”最高能够吃掉GTX Titan X多少显存,于是我们就无耻的把抗锯齿拉到8xMSAA,应用之后便重启了游戏。结果我们发现,在4K分辨率 + 极高画质 + 8xMSAA这种设定之下,GTX Titan X只能让这款游戏在10FPS左右运行,而显存占用已经达到了比较惊人的9GB......
由此看来,NVIDIA这一次给GeForce GTX Titan X配备上12GB GDDR5的超大容量显存无疑是正确的,因为GeForce GTX Titan X是直面4K分辨率的优异显卡产品,在这种分辨率下以最高画质运行游戏需要显卡拥有足够的显存容量,尤其是像“显存信条”这种对显存容量要求很高的游戏。
超频不仅可以获得免费性能,也是检测显卡稳定性的一项重要手段,所以重要产品的测试超频环节是必不可少的。GeForce GTX Titan X的默频性能固然非常强大,那它的超频潜力又怎么样呢?我们下面通过实际测试验证一下即可见分晓。
在经过数次调试之后,我们成功的将GeForce GTX Titan X的核心/显存频率超到1177/1251/7532MHz(没加压),并成功进行了多次3DMark跑分测试,下面我们就来看一看超频后的GeForce GTX Titan X在性能上有多少提升。
3DMark 11成绩展示:
3DMark Fire Stirke成绩展示:
3DMark Fire Stirke Extreme成绩展示:
3DMark Fire Stirke Ultra成绩展示:
通过上述成绩我们可以看到,GeForce GTX Titan X在超频能力方面的表现可以说比较不错,在不加压的情况下超个200MHz应该不是问题。而且在超频之后,这款显卡的GPU实际运行频率可以提升到1.4GHz,性能自然也就会有不小的增加,算下来应该能提升个15%左右。
好了,到此关于GeForce GTX Titan X的性能测试环节就告一段落了。接下来,我们将给大家带来本篇评测的功耗、温度以及噪音测试成绩。
GeForce GTX Titan X功耗测试:
得益于优秀的Maxwell架构,虽然GeForce GTX Titan X的核心规格相当强大,但它在功耗控制方面的表现就像之前的Maxwell架构产品一样出色。在Furmark拷机测试中,搭载GeForce GTX Titan X的平台(其它配置请参看前面的平台配置介绍,不带显示器)的满载功耗大概是352.8W,与本次测试中的搭载Radeon R9 290X的平台处于同一水平,但和使用GTX 980的平台相比要高大概80多W。不过,对于一款卡皇级别的优异单芯显卡,GeForce GTX Titan X在功耗控制方面已经相当出色了。
而在平台闲置功耗测试中,搭载GeForce GTX Titan X的平台整体功耗大概是65.8W,同样与搭载Radeon R9 290X的平台处于同一水平。
PS:在本次测试中,我们使用的GTX 970、R9 290X和R9 290均为非公版产品,所以本次功耗测试中这三款产品的功耗数值仅供各位参考。
GeForce GTX Titan X温度测试:
转到GeForce GTX Titan X的温度测试,由于这款显卡的核心规格与核心面积相当庞大,这就使得GeForce GTX Titan X的核心发热量增加了不少。在用Furmark拷机软件(3840 x 2160分辨率 + 4xMSAA)进行拷机一阵子之后,GeForce GTX Titan X的满载温度维持在了83℃,而在待机状态下,GeForce GTX Titan X显卡的温度则维持在47℃左右。这样的温度测试表现对于一款采用公版散热方案的优异卡皇来说,应该会让大伙接受。
本次测试时的环境温度为24℃。
▲GeForce GTX Titan X的满载温度为83℃
▲GeForce GTX Titan X的待机温度为47℃
GeForce GTX Titan X噪音测试:
在环境噪音大概37.5分贝的情况下,GeForce GTX Titan X在显卡处于满载状态下的最高噪音为54.2分贝,而待机时的显卡运行时发出的噪音为41.3分贝,如果我们将它放置在机箱中,相距1M几乎听不到显卡风扇的声音。另外,困扰许多玩家的“高频啸叫”问题似乎没有出现在GeForce GTX Titan X显卡上,这得归功于使用了模压电感和极化电容,它们可以最大限度地消除这种现象,大幅提升玩家的游戏体验。
&nbs
自2015年3月18日起,采用Maxwell架构优异GPU的GeForce GTX Titan X显卡凭借着架构出色、规格强悍的GPU、12GB GDDR5的超大容量显存以及由此提供最出色游戏性能,轻而易举的从NV自家的GeForce GTX 980手中接过了“地球最强单芯显卡”的桂冠。它的每一项优势,都是压倒性的,都是之前的卡皇、旗舰们所不能比拟的。
正如我们之前所说过的,初代Maxwell迈出了重要的一步,从它身上我们不难看出工程师在背后付出的极大努力,幸运的是他们努力的方向是正确的,每瓦特性能提升必然是后PC时代显卡大合唱的主旋律。而新GeForce GTX Titan X在功耗比方面的良好表现更是旗舰显卡向着实用和节能方向发展的典范产品。
另外,GeForce GTX Titan X也是NVIDIA旗下首款真正意义上为4K分辨率准备的单芯显卡,尤其是它的12GB GDDR5显存已经为玩家在4K分辨率下畅玩热门大作打下了良好基础。尽管单靠一片GeForce GTX Titan X还没有办法实现彻底征服4K分辨率这一目标,但笔者相信,能够彻底征服4K分辨率的单芯显卡距离我们已经并不遥远了。
价格方面,虽然NVIDIA直到GeForce GTX Titan X发布之前几小时才透露这款显卡的官方指导价为999美元,与之前GTX Titan、GTX Titan BE的首发价保持不变,但这个数字早前已经被外媒泄露过了。
至于GeForce GTX Titan X在国内的官方价格,也正如同一部分玩家所猜想的那样,为7999人民币。而NVIDIA给GeForce GTX Titan X的国内官方指导价定成这样自然不需要笔者多言,单屏GeForce GTX Titan X是目前地球最强单芯显卡这一点已经足够。如果感觉单靠性能还不足以证明GTX Titan X值这个价,那再加上“12GB”超大显存这条也应该差不多了。
GTX Titan X的“加冕”固然是顺理成章、实至名归,但细想起来却透出一丝莫名凄凉感。因为自去年9月至今,高端独显市场一直由NVIDIA独领风骚,而他的老对手AMD却一直处于沉寂状态,只能祭出“降价”这一法宝来与NV抗衡。不过,就目前的状况来看NVIDIA在高端独显市场一枝独秀的局面似乎不会维持太久了,因为现在有许多消息称AMD将使用超级大杀器“Fiji”——Radeon R9 390X来重振雄风,而且R9 390X有可能要比GTX Titan X更为出色。
不过,既然NVIDIA选在这个时间节点发布GeForce GTX Titan X,想必GTX Titan X的性能充满了信心,或者已经做好了相应的准备。各位想一想将在今年年内重新燃起的A/N单芯卡皇之战,是不是有点小激动呢?
写在最后:从1999年到现在从第一个显卡GPU产生到现在只有短短十几年的时间。在这短短十几年当中我们已经看到了GPU的运算能力呈几何级数提升,这个世界在GPU的虚拟之下更快更真,而更重要的一点是GPU已经将它的应用范围不断拓展。
从图形领域虚拟现实的角度来说,只要有显示终端的地方就需要一颗GPU。借助于GPU可以让医学家观察到更细微的分子;借助于GPU可以让军事演习的拟真度更强;借助于GPU可以让专业工作站的效率翻倍提升;借助于GPU可以让电影的特效骗过你的眼睛。而更多的科学研究领域已经开始大量采购GPU设备应用于电脑辅助工程、油气勘探、金融安全评估等领域。
至此,GPU存在的意义已远远不是为图形运算服务这么简单。有人说NVIDIA最大的竞争对手就是过去的自己,这句话听着像是N次元平行世界的科幻,但笔者深以为然。Fermi时代的大核心因为功耗发热问题饱受争议,之后无论是NVIDIA还是AMD都保守的将旗舰核心的面积控制合理范围,双芯显卡在Kepler和GCN时代风光了一把。
而这次GeForce GTX Titan X超大核心的问世无疑是NVIDIA在消费级显卡领域做出的又一次大胆尝试。不同的是这次GeForce GTX Titan X在性能猛增的情况下依然保证了良好的用户体验。安静稳定高效能比是半导体发展的主旋律,GeForce GTX Titan X的成功也为了以后超大核心显卡研发积累了宝贵的经验,无论是用于游戏还是科研,它的意义在高性能计算领域彪炳史册。<