终极旗舰降临!NV黑版TITAN首发测试
泡泡网显卡频道2月25日 科学、医学、工程和金融各领域对高性能并行计算需求日益增加,NVIDIA GPU则在不断创新和满足这种需求。NVIDIA现有的 Kepler GPU已经重新定义和加速了以下领域的高性能计算(HPC)的功能,如地震处理、生化模拟、天气和气候建模、信号处理、计算金融、计算机辅助工程、计算流体力学和数据分析。
Kepler GK110由71亿个晶体管组成,是有史以来架构最复杂的微处理器。GK110新加了许多注重计算性能创新功能,目的是要成为NVIDIA Tesla和HPC市场上的并行处理动力站。前不久NVIDIA终于发布了GK110核心的终极产品GTX TITIAN Black,它提供了超过每秒1万亿次双精度浮点计算的吞吐量,DGEMM效率大于80%。
Kepler GK110 模具照片
其实早在数周之前就流传出NVIDIA可能会推出黑版TITAN的消息,毕竟以前的TITAN被后来的GTX780Ti在游戏性能上超越不少,双精度大显存的黑TITAN问世算是在情理之中。Kepler GK110的不仅提高GPU的利用率,简化了并行程序设计,而且有助于GPU在各种计算环境中部署,无论是从个人电脑还是超级计算机,GTX TITAN Black都能独当一面。
Kepler GK110专为NVIDIA Tesla打造,其目标是成为世界上并行计算性能最高的微处理器。GK110 不仅大大超过由 Fermi 提供的原始计算能力,而且非常节能,显著减少电力消耗,同时产生的热量更少。完整 Kepler GK110 实施包括 15 SMX 单元和六个 64 位内存控制器。不同的产品将使用GK110 不同的配置。例如,某些产品可能部署 13 或 14 个 SMX。在下面进一步讨论的该架构的主要功能,包括:
1、新 SMX 处理器架构
2、增强的内存子系统,在每个层次提供额外的缓存能力,更多的带宽,且完全进行了重新设计,DRAM I/O 实施的速度大大加快。
3、贯穿整个设计的硬件支持使其具有新的编程模型功能
Kepler GK110 完整芯片框图
GTX TITAN Black规格参数对比
GeForce GTX Titan Black Edition的默认核心及显存运行频率在Titan的基础上被进一步提升到了889/7000MHz,流处理器2880个,纹理单元数量从GTX TITIAN的224个增加到了240个,默认Pixel Fillrate能力为42.6Gpixels/S,默认Texture Fillrate能力为207.3G/S,显存带宽336GB/S。Titan Black Editon拥有5.11T Flops/S的单精度浮点运算能力,同时其Titan的身份也带来了近乎完整的生产力属性,Titan Black Edition的双精度浮点运算能力未被限制,GeForce GTX Titan Black Edition保留了1/3速DP的运算特征,双精度浮点运算能力为1.7T Flops/S。
性能/功率比
Kepler架构的一个主要设计目标是提高电源效率。设计Kepler时,NVIDIA工程师应用从Fermi中积累的经验,以更好地优化Kepler、实现高效运行。台积电的 28nm 制造工艺在降低功耗方面起着重要的作用,但许多 GPU 架构需要修改,以进一步降低功耗,同时保持出色的性能。
Kepler每一个硬件设备都经过设计和擦洗,以提供卓越的性能/ 功率比。出色性能/功率比的非常好的案例是Kepler GK110新流式多处理器 (SMX) 中的设计,与最近Kepler GK104引入的 SMX 单元的许多方面类似,但计算算法包括更多双精度单位。
Kepler GK110的新SMX引入几个架构创新,使其不仅成为有史以来最强大的多处理器,而且更具编程性,更节能。
SMX: 192个单精度CUDA核、64个双精度单元、32个特殊功能单元(SFU)和32 个加载/存储单元(LD/ST)。
SMX 处理核架构
每个Kepler GK110 SMX单元具有192单精度CUDA核,每个核完全由浮点和整数算术逻辑单元组成。Kepler完全保留Fermi引入的IEEE 754-2008 标准的单精度和双精度算术,包括积和熔加(FMA)运算。
Kepler GK110 SMX 的设计目标之一是大大提高GPU的双精度性能,因为双精度算术是许多HPC应用的核心。Kepler GK110 的SMX还保留了特殊功能单元 (SFU)以达到和上一代GPU类似的快速超越运算,所提供的SFU数量是Fermi GF110 SM的8倍。
与GK104 SMX单元类似,GK110 SMX单元内的核使用主GPU频率而不是2倍的着色频率。2x着色频率在 G80 Tesla 架构的 GPU 中引入,并用于之后所有的 Tesla 和 Fermi‐架构的GPU。在更高时钟频率上运行执行单元使芯片使用较少量的执行单元达到特定目标的吞吐量,这实质上是一个面积优化,但速度更快的内核的时钟逻辑更耗电。对于Kepler,我们的首要任务是的性能/功率比。虽然我们做了很多面积和功耗方面的优化,但是我们更倾向优化功耗,甚至以增
加面积成本为代价使大量处理核在能耗少、低GPU频率情况下运行。
Quad Warp Scheduler
SMX以32个并行线程为一组的形式调度进程,这32个并行线程叫做Warp。而每个SMX中拥有四组 Warp Scheduler 和八组 Instruction Dispatch 单元,允许四个Warp同时发出执行。Kepler 的 Quad Warp Scheduler 选择四个 Warp,在每个循环中可以指派每 Warp 2 个独立的指令。与 Fermi 不同,Fermi 不允许双精度指令和部分其他指令配对,而 Kepler GK110 允许双精度指令和其他特定没有注册文件读取的指令配对 例如加载/存储指令、纹理指令以及一些整数型指令。
每个Kepler SMX 包含4组Warp Scheduler,每组Warp Scheduler包含两组 Instruction Dispatch单元。单个Warp Scheduler单元如上所示。
我们努力优化SMX Warp Scheduler逻辑中的能源。例如,Kepler和Fermi Scheduler 包含类似的硬件单元来处理调度功能。其中包括:
a) 记录长延迟操作(纹理和加载的寄存器
b) Warp 内调度决定(例如在合格的候选 Warp 中挑选出非常好的 Warp 运行)
c) 线程块级调度(例如,GigaThread 引擎)
然而,Fermi的scheduler还包含复杂的硬件以防止数据在其本身数学数据路径中的弊端。多端口寄存器记录板会纪录任何没有有效数据的寄存器,依赖检查块针对记录板分析多个完全解码的 Warp指令中寄存器的使用情况过,确定哪个有资格发出。
对于 Kepler ,我们认识到这一信息是确定性的(数学管道延迟是不变量),因此,编译器可以提前确定指令何时准备发出,并在指令中提供此信息。这样一来,我们就可以用硬件块替换几个复杂、耗电的块,其中硬件块提取出之前确定的延迟信息并将其用于在 Warp 间调度阶段屏蔽Warp,使其失去资格。
新ISA编码:每个线程255个寄存器
可由线程访问的寄存器的数量在 GK110 中已经翻了两番,允许线程最多访问 255 个寄存器。由于增加了每个线程可用的寄存器数量,Fermi 中承受很大寄存器压力或泄露行为的代码的速度能大大的提高。典型的例子是在 QUDA 库中使用 CUDA 执行格点 QCD(量子色动力学)计算。基于 QUDA fp64 的算法由于能够让每个线程使用更多寄存器并减少的本地内存泄漏,所以其性能提高了 5.3 倍。
Shuffle 指令
为了进一步提高性能,Kepler 采用 Shuffle 指令,它允许线程在 Warp 中共享数据。此前,Warp 内线程之间的数据共享需要存储和加载操作以通过共享内存传递数据。使用 Shuffle 指令,Warp 可以读取来自Warp 内其他线程中任意排列的值。Shuffle 支持任意索引引用(即任何线程读取任何其他线程)。有用的 Shuffle 子集包括下一线程(由固定量弥补抵消)和 Warp 中线程间 XOR “蝴蝶”式排列,也称为 CUDA 性。
Shuffle 性能优于共享内存,因此存储和加载操作能够一步完成。Shuffle 也可以减少每个线程块所需共享内存的数量,因为数据在 Warp 级交换也不需要放置在共享内存中。在 FFT 的情况下,需要共享一个 Warp 内的数据,通过使用 Shuffle 获得 6%的性能增益。
此示例表明某些变量可以在 Kepler 中使用 Shuffle 指令。
原子运算
原子内存运算对并行编程十分重要,允许并发线程对共享数据结构执行正确的读‐修改‐写运算。原子运算如 add、min、max 和 compare,swap 在某种意义上也是也是原子运算,如果在没有其他线程干扰的情况下执行读、修改和写运算。原子内存运算被广泛用于并行排序、归约运算、建制数据结构而同时不需要锁定线程顺序执行。
Kepler GK110 全局内存原子运算的吞吐量较 Fermi 时代有大幅的提高。普通全局内存地址的原子运算吞吐量相对于每频率一个运算来说提高了 9 倍。独立的全局地址的原子运算的吞吐量也明显加快,而且处理地址冲突的逻辑已经变得更有效。原子运算通常可以按照类似全局负载运算的速度进行处理。此速度的提高使得原子运算足够快得在内核内部循环中使用,消除之前一些算法整合结
果所需要的单独的归约传递。Kepler GK110 还扩展了对全局内存中 64‐位原子运算的本机支持。除了 atomicAdd、atomicCAS 和 atomicExch(也受 Fermi 和 Kepler GK104 支持)之外,GK110 还支持以下功能:
atomicMin、atomicMax、atomicAnd、atomicOr、atomicXor
其他不受本机支持的原子运算(例如 64 位浮点原子运算)可以使用 compare‐and‐swap (CAS) 指令模拟。
纹理改进
GPU 的专用硬件纹理单元对于需要取样或过滤图像数据的计算机程序来说是宝贵的资源。Kepler中的纹理吞吐量与 Fermi 相比有明显提高,每个SMX单元包含16纹理过滤单元,对比Fermi GF110 SM 提高了4倍。
此外,Kepler改变了管理纹理状态的方法。在Fermi时代,为让GPU引用纹理,必须在固定大小绑定表中分配“槽”才能启动 Grid。表中槽数量最终限制程序一次可以读取多少个独特的纹理。最终,在 Fermi 中限制程序仅可以同时访问128纹理。
Kepler中有无绑定纹理,不需要额外步骤:纹理状态已保存为内存中的对象,硬件按需获取这些状态对象,绑定表过时。这有效地消除了计算程序引用独特纹理数量的任何限制。相反,程序可以在任何时间映射纹理和通纹理处理周围。
Kepler的内存层次结构与Fermi类似。Kepler架构支持统一内存加载和存储的请求路径,每个SMX 多处理器有一个L1缓存。Kepler GK110 还使编译器指示为只读数据增设一个新的缓存,如下所述。
64KB可配置共享内存和L1缓存
在 Kepler GK110 架构(如在上一代 Fermi 架构)中,每个 SMX 有 64 KB 的片上存储器,可配置为 48 KB 的 共享存储器和 16 KB 的 L1 缓存,或配置为 16 KB 的共享存储器和 48 KB 的 L1 缓存。Kepler 目前在配置共享存储器的分配和 L1 缓存方面的灵活性更大,允许共享存储器和 L1 缓存之间以 32KB/32KB 划分。为了支持 SMX 单元增加的吞吐量,用于 64 位或更大负载运算的共享存储器带宽相对 Fermi SM 也增加一倍,到每主频 256B。
48KB只读‐数据缓存
除 L1 缓存之外,Kepler 为只读数据引入 48 KB 缓存为了函数的持续时间。在 Fermi 时代,该缓存只能由纹理单元访问。专家程序员通常发现它的优势是通过将数据映射为纹理来加载数据,但这种方法有很多局限性。
在 Kepler 中,除了大大提高了该缓存的容量之外,还伴随着纹理功力的提高,我们决定让缓存为一般负载运算直接访问 SM 。使用只读的路径好处极大,因为它使负载和工作组的影响远离共享/L1缓存路径。此外,其他情况下,只读数据缓存更高的标签带宽支持全速非对齐内存访问模式。
该路径的使用是由编译器自动管理(通过参数 C99 访问任何变量或称为常量的数据结构)。标准关键字 “const_restrict” 将被编译器标记以通过只读数据缓存加载。
改进的L2缓存
Kepler GK110 GPU 具有 1536KB 的专用 L2 缓存内存,是 Fermi 架构中 L2 的 2 倍。L2 缓存是SMX 单元之间主要数据统一点,处理所有加载、存储和纹理请求并提供跨 GPU 之间有效、高速的数据共享。Kepler 上的 L2 缓存提供的每时钟带宽是 Fermi 中的 2 倍。之前不知道数据地址的算法,如物理求解器、光线追踪以及稀疏矩阵乘法,从高速缓存层次结构中获益匪浅。需要多个SM读取相同数据过滤和卷积内核也从中受益。
内存保护支持
与 Fermi 相同,Kepler的注册文件、共享内存、L1 缓存、L2 缓存和 DRAM 内存受单错纠正双错检测 (SECDED) ECC 代码保护。此外,只读的数据缓存‐通过奇偶校验支持单错纠正,在奇偶校验错误的情况下,缓存单元自动使失效,迫使从 L2 读取正确的数据。
ECC 校验位从 DRAM 获取必定消耗一定量的带宽,这会导致启用 ECC和停用 ECC的运算之间的差异,尤其对于内存带宽敏感的应用程序。基于 Fermi 的经验,Kepler GK110 对 ECC 校验位获取处理进行了几项优化。结果,经内部的计算应用测试套件测量,开启和关闭 ECC 的性能三角洲已经平均降低 66%。
在混合 CPU‐GPU 系统中,由于 GPU 的性能/ 功率比提高,使应用程序中大量并行代码完全在GPU 高效运行,提高了可扩展性和性能。为了加快应用程序的额外并行部分的处理,GPU必须支持更加多样化的并行工作负载类型。
Dynamic Parallelism 是 Kepler GK110 引入的新功能,能够让 GPU 在无需 CPU 介入的情况下,通过专用加速硬件路径为自己创造新的工作,对结果同步,并控制这项工作的调度。
在内核启动时,如果问题的规模和参数已知,那么 Fermi 在处理大型并行数据结构时效果非常好。所有的工作是从主机 CPU 启动,会运行到完成,并返回结果返回到 CPU。结果将被用来作为最终的解决方案的一部分,或通过 CPU 进行分析,然后向 GPU 发送额外的处理请求以进行额外处理。
在 Kepler GK110中,任何一个内核都可以启动另一个内核,并创建处理额外的工作所需的必要流程、事件以及管理依赖,而无需主机 CPU 的介入。T 该架构能让开发人员更容易创建和优化递归和数据依赖的执行模式,并允许更多的程序直接运行在 GPU 上。可以为其他任务释放系统CPU,或可以用功能少的 CPU 配置系统以运行相同的工作负载。
Dynamic Parallelism 允许应用程序中更多的并行代码直接由 GPU 本身启动(右侧图像),而不需要 CPU 的干预(左侧图像)。
Dynamic Parallelism 允许更多种并行算法在 GPU 上执行,包括不同数量的并行嵌套循环、串行控制任务线程的并行队或或卸载到 GPU 的简单的串行控制代码,以便促进应用程序的并行部分的数据局部化。
因为内核能够根据GPU 中间结果启动额外工作负载,程序员现在可以智能处理负载平衡的工作,以集中其大量资源在需要处理能力最大或与解决方案最有关的问题上。
一个例子是动态设置数值模拟的 Grid。 通常 Grid 主要集中在变化最大的地区,需要通过数据进行昂贵的前处理。另外,均匀粗 Grid 可以用来防止浪费的 GPU 资源,或均匀细 Grid 可以用来确保捕获所有功能,但这些选项的风险是在不太被注意的地区缺少模拟功能或“过度消费”的计算资源。
有了 Dynamic Parallelism,可以在运行时以数据依赖形式动态确定‐Grid解决方案。以粗 Grid开始,模拟“放大”注意的区域,同时避免在变化不大区域中不必要的计算。虽然这可以通过使用一系列的 CPU 启动的内核来完成,但是通过分析数据、作为单个模拟内核部分启动额外工作让 GPU 细化 Grid 本身要简单的多,消除了 CPU 的中断以及CPU和GPU之间的数据传输。
图片归属查尔斯· 里德
上面的例子说明了在数值模拟,采用动态调整 Grid 的好处。为了满足峰值的精度要求,固定的分辨率仿真必须运行在整个模拟域过于精细的分辨率上,而多分辨率 Grid 根据当地的变化为每个区域应用正确的模拟分辨率。
原来的一个困难是,GPU始终要优化调度来自多个数据流的工作负载。Fermi 结构支持从单独数据流的16路并发内核启动,但最终数据流都复用相同的硬件工作队列。这允许虚假的数据流内依赖,要求在单独数据流内的其他内核可以执行之前就完成一个数据流内依靠的内核。虽然在某种程度上这可以通过使用广度优先启动顺序缓解,但是随着程序的复杂性的增加,这可以成为越来越难以有效地管理。
Kepler GK110 使用新 Hyper‐Q 特征改进了这一功能。Hyper‐Q 允许 32 个并发,硬件管理的连接( 对比 Fermi 的单一连接),增加了主机和 GPU 中 CUDA Work Distributor (CWD)逻辑之间的连接总数(工作队列)。Hyper‐Q 是一种灵活的解决方案,允许来自多个 CUDA 流、多个消息传递接口(MPI)进程,甚至是进程内多个线程的单独连接。以前遇到跨任务虚假串行化任务的应用程序,限制了 GPU 的利用率,而现在无需改变任何现有代码,性能就能得到 32 倍的大幅度提升。
Hyper‐Q 允许CPU和GPU之间更多的并发连接
每个 CUDA 流在其自己硬件工作队列管理,优化流间的依赖关系,一个流中的运算将不再阻止其他流,使得流能够同时执行,无需特别定制的启动顺序,消除了可能的虚假依赖。Hyper‐Q 在基于 MPI 的并行计算机系统中使用会有明显的优势。通常在多核 CPU 系统上运行时创建传统基于 MPI‐的算法,分配给每个 MPI 进程的工作量会相应地调整。这可能会导致单个MPI 进程没有足够的工作完全占据 GPU。虽然一直以来多个 MPI 进程都可以共享 GPU,但是这些进程可能会成为虚假依赖的瓶颈。Hyper‐Q 避免了这些虚假的依赖,大大提高了 MPI 进程间共享 GPU 的效率。
Hyper‐Q 与 CUDA 流一起工作:左侧显示 Fermi 模式,仅 (C,P) 和 (R,X) 可以同时运行,因为单个硬件工作队列导致的流内依赖。Kepler Hyper‐Q 模式允许所有流使用单独的工作队列同时运行。
Kepler GK110 中的新功能,如 CUDA 内核能够利用 Dynamic Parallelism 在 GPU 上直接启动工作,需要 Kepler 中 CPU‐to‐GPU 工作流提供比 Fermi 设计增强的功能。Fermi中,线程块的Grid可由CPU启动,并将一直运行到完成,通过 CUDA Work Distributor (CWD) 单元创建从主机到SM的简单单向工作流。Kepler GK110目的是通过GPU有效管理CPU和CUDA创建的工作负载来改进 CPU‐到‐GPU 的工作流。
我们讨论了 Kepler GK110 GPU 允许内核直接在GPU上启动工作的能力,重要的是要理解在Kepler GK110 架构所做的变化,促成了这些新功能。Kepler 中,Grid 可从 CPU 启动,就和Fermi 的情况一样,但是新 Grid 还可通过编程由 CUDA 在 Kepler SMX 单元中创建。要管理CUDA 创建的 Grid 和主机生成的 Grid,在 Kepler GK110 中引入新 Grid Management Unit (GMU)。该控制单元管理并优先化传送到 CWD 要发送到 SMX 单元执行的 Grid。
Kepler 中的 CWD 保留准备好调度的 Grid,并能调度 32 个活动的 Grid,这是 Fermi CWD 容量的两倍。Kepler CWD 通过双向链接进行通信,允许 GMU 暂停新 Grid 的调度并保留挂起和暂停的 Grid,直到需要。GMU 也有到 Kepler SMX 单元的直接连接,允许 Grid 通过 Dynamic Parallelism 在 GPU 上启动其他工作,以将新工作传回到 GMU 进行优先化和调度。如果暂停调度的额外工作量的内核,GMU 将保持其为不活动,知道以来工作完成。
重新设计的 Kepler HOST 到 GPU 的工作流显示新 Grid Management Unit,允许其管理主动调度的 Grid、暂停调度、保留挂起和暂停的 Grid。
NVIDIA GPUDirect
当处理大量的数据时,提高数据吞吐量并降低延迟,对于提高计算性能是至关重要的。Kepler GK110 支持NVIDIA GPUDirect 中的 RDMA,目的是通过允许第三方设备,如 IB 适配器、NIC 和 SSD,直接访问 GPU 内存‐来提高性能。使用 CUDA 5.0 时,GPUDirect 提供以下重要功能:
无需 CPU方面的数据缓冲, NIC 和 GPU 之间的直接内存存取 (DMA)
显著改善 GPU和其他网络节点之间的 MPISend/ MPIRecv 效率。
消除了 CPU 带宽和延迟的瓶颈
与各种第三方网络、捕获和存储设备一起工作
如逆时偏移(用于石油和天然气勘探地震成像)这样的应用程序,将大量影像数据分布在多个GPU。数以百计的 GPU 必须合作,以紧缩的数据,经常通信中间结果 GPUDirect 利用 P2P 和RDMA 功能为服务器内或服务器之间“ GPU‐ 到‐GPU” 的通信的情况分配更高的总带宽。
Kepler GK110 还支持其他功能 GPUDirect,如 Peer‐to‐Peer 和 GPUDirect for Video。
GPUDirect RDMA 允许网络适配器这样的第三方设备访问GPU内存,转换为跨节点GPU之间直接传输。
一般测试的时候我们都是将设置手动调整到最高,目的是压榨显卡的全部性能。但实际游戏的时候,根据显卡的性能和游戏的需要,我们并不需要这么做,而在画面质量和游戏速度两者之间达到非常好的平衡才是我们需要的结果,为了解决这个问题,NVIDIA发布了GeForce Experlence——一款智能设置游戏参数的软件。
这款软件在NVIDIA官网提供下载,安装之后第一次运行,GeForce Experlence会从NVIDIA的云端下载用户所需的游戏设置。
▲ 通过云端硬件和游戏的数据匹配交换,GeForce Experlence可以优化系统。
▲ GeForce Experlence的系统要求,支援主流硬件和系统
GeForce Experlence支持手动调整游戏设置,也支持一键智能优化,云端会根据用户的电脑硬件配置和游戏的要求设置特效的高低,保证所有GeForce用户非常好的的游戏体验。
电视机首次被开发出来时依赖的是阴极射线管 (CRT),阴极射线管通过在磷管表面上扫描电子束来工作。这些电子束造成管上的某个像素发光,当以足够快的速度激活足够多的像素时,CRT 就会呈现出全活动视频的效果。这些早期的电视具备 60Hz 刷新率主要是因为美国电网是 60Hz 交流电。将电视刷新率与电网相匹配,这让早期的电子产品开发起来更加容易,而且也减少了屏幕上的电源干扰。
到了上世纪八十年代早期 PC 上市之时,CRT 电视技术已经十分普遍,同时在打造计算机专用显示器方面也是最简单、最具性价比的技术。 60Hz 与固定刷新率成为了标准,系统制造商学会了如何在不大完美的情形下物尽其用。在过去的三十年里,即便显示器技术从已经从 CRT 发展到了 LCD 和 LED,但是尚无大公司挑战过这一想法,因此使 GPU 与显示器刷新率同步依然是当今整个行业的标准做法。
但问题是,显卡并不以固定的速度渲染。事实上,即便在单一游戏的单个场景中,显卡渲染的帧速率也会大幅变化,这种变化根据 GPU 的瞬时负荷而定。因此在刷新率固定的情况下,要如何将 GPU 图像搬到屏幕上呢? 第一个办法就是完全忽略显示器的刷新率,对中间周期扫描到显示器的图像进行更新。这种办法我们叫做「垂直同步关闭模式」,这也是大多数游戏玩家所使用的默认方式。缺点是,当单一刷新周期显示两幅图像时,在两幅图像交替时会出现非常明显“撕裂线”,这种情况通常被称作屏幕撕裂。
解决屏幕撕裂问题的老牌解决方案是打开垂直同步,强迫 GPU 延迟屏幕更新,直到显示器开始进入一个新的刷新周期为止。只要 GPU 帧速率低于显示器刷新率,这个办法就会导致卡顿现象。它还会增大延迟,导致输入延迟。输入延迟就是从按下按钮到屏幕上出现结果这段时间的延迟。
更糟糕的是,许多玩家在碰到持续的垂直同步卡顿现象时会导致眼睛疲劳,还有人会产生头痛和偏头痛症状。这些情况推动我们开发了自适应垂直同步技术,该技术是一种有效而备受赞誉的解决方案。尽管开发了这一技术,垂直同步的输入延迟问题现在依然存在,这是许多游戏发烧友所不能接受的,也是电子竞技职业玩家绝对不能容忍的。这些职业玩家会定制自己的 GPU、显示器、键盘以及鼠标以最大限度减少重新开始时的重大延迟问题。
传统的垂直同步就是让显卡输出的帧等液晶刷新。假设显卡渲染的帧比显示器更快,那就让渲染出来的这一帧放在显存里面等待下一个液晶刷新,这个周期里面即使游戏中的模型已经发生位移或者改变,最后显示器输出的依然是之前的图像。假设显示器刷新比显卡更快,那显示器会输出两帧同样的画面。
不开启G-SYNC的一边要么出现撕裂,要么出现卡顿
往往这两种情况交错进行,我们看到的画面就会抖动,看到的游戏世界就会和真实情况有着一定程度的非正常延时。这就是为什么即使我们的显卡帧数跑到100FPS以上,我们依然感觉不是完全流畅的原因。
G-SYNC的出现让这种情况彻底改观,本质上说G-SYNC可以从根源上杜绝撕裂和卡顿,因为G-SYNC是在显示器中加入一个芯片,让显示器听从显卡的命令确定实时的刷新频率。简而言之就是显卡渲染出一帧,显示器就刷新一帧。这样做的好处是无论场景渲染变化如何大,显卡帧数如何波动,只要保持在一定的水平之上,我们看到的都是连贯平滑的图像。
很明显除了观赏体验上发生了巨大变化以外,当 G-SYNC 与高速的 GeForce GTX GPU 和低延迟输入设备搭配使用时,线上游戏的玩家还将获得重大的竞争优势。无论是业余爱好者还是专业电子竞技选手,NVIDIA G-SYNC对他们来说无疑是一次必不可少的升级。
Unreal Engine 的架构师就称 G-SYNC技术为“自人类从标清走向高清以来游戏显示器领域最重大的飞跃”。
GeForce Experience 现已优化了支持110多款游戏,下载用户数量也早就超过了1000万。而前不久GeForce Experience (GFE软件)1.7版本加入了一个重大更新,那就是备受期待的ShadowPlay。
ShadowPlay演示:
ShadowPlay它是GFE中的一个简单易用的游戏录制模块,可充分利用 GeForce GTX 600 和 700 系列 GPU 中内置的 H.264 编码器达到高效率录制游戏录像的功能。通过利用这一硬件编码器,ShadowPlay 对游戏帧速率的影响大大低于传统的录制应用程序,传统应用程序会给 CPU 造成巨大压力。由于帧速率更高,玩家可以享受到更加流畅的游戏体验,而通过以 H.264 格式进行编码,ShadowPlay 避免了其它应用程序中占用数 GB 空间的大文件问题。这样便节省了空间,更重要的是,通过避免不必要的硬盘颠簸,减少了卡顿现象。
ShadowPlay 具有两种用户配置模式。首先,与软件本身同名的 Shadow 模式可不断地录制游戏画面,最多可将 20 分钟 (Windows 7 中为 10 分钟) 的高品质 1920x1080 片段保存到临时文件中。如果你在游戏中上演了一次尤其令人难忘的行动,只要按下用户自定义的快捷键,该片段就会保存到用户所选的目录中。这个文件接下来可以用免费的 Windows Movie Maker 应用程序进行编辑,也可以使用任何其它兼容 .mp4 的视频编辑程序,然后上传至 YouTube 以便和友人或全世界分享。
另外一个方法是,启用手动模式,该模式就像传统的游戏录制程序一样,可将整个会话保存到磁盘上。
要开始试用 GeForce ShadowPlay Beta,你将需要一颗 GeForce GTX 650 或更高型号的台式机 GPU、最新的 GeForce 驱动程序以及 GeForce Experience 1.7。一旦安装了 GeForce Experience,即可点击屏幕右上角专门的 ShadowPlay 按钮,然后打开出现的新控制面板中的开关。利用四个按钮和 Preferences 按钮,用户可以根据自己的喜好来配置 ShadowPlay 的方方面面。请记住,只有在你按下游戏中的快捷键,视频才会被录制。这样可防止无尽的视频占满你的硬盘。
外观方面,GTX TITAN Black和GTX TITAN没有明显的差别,不对比的话还以为就是GTX TITAN呢。
▲ GTX TITAN Black
▲ GTX TITAN
最大的区别就是TITAN Black的“TITAN”字样和透视玻璃都是黑色的,而普通版TITAN则是浅色和透明的。
▲ GTX TITAN Black
▲ GTX TITAN
散热器也一模一样,入手颇有份量,和一般显卡相比,TITAN的散热器构造比较复杂,工艺也非常不错,均热板底座比普通纯铜底座散热效率更高。
这是TITAN Black的散热器的核心部件,底座鳍片一体式的镀铬散热模块。
▲ GTX TITAN Black
▲ GTX TITAN
TITAN Black的PCB结构紧凑,用料非常扎实,仔细看可以发现Black版和普通GTX TITAN相比供电略有加强,电容和mos都有增加,但依然没有华硕的战神、微星的闪电用料奢华。
▲ GTX TITAN Black
▲ GTX TITAN
GK110是集成了71亿晶体管、拥有2880个流处理器的真正怪兽。Titan Black Editon拥有5.11T Flops/S的单精度浮点运算能力!之前的GTX TITIAN 则只有2688流处理器,4.5T Flops/S的单精度浮点运算能力。核心代号从之前的GK110-400升级到了GK110-430。
▲ GTX TITAN Black
▲ GTX TITAN
这张图可以清楚看到,TITIAN BE加强了供电,MOS、电容数量和排列规则均有所改变,这重要是为了超频做保证。
▲ GTX TITAN Black
▲ GTX TITAN
GTX TITIAN显存芯片为三星出品的K4G20325F0-FC03,0.3ns三星的显存颗粒,GTX TITAN Black则是选用了来自SK海力士的颗粒。都是正反24个颗粒组成了384bit、6GB容量的显存规格,但GTX TITAN Black频率更高达到了7000MHz!显然一般平台的1080P显示器已经不是TITAN Black所要挑战的对象,未来的4K以上分辨率才是其真正对手。
安森美新推出的NCP4206六相PWM控制芯片,由于主控不带驱动IC,所以PCB上6颗标着AZN的东西就是小型驱动IC。
和普通版TITAN一样,BE版TITAN的长度也并不夸张,一般的机箱即可容纳
NV高端显卡经典的接口组合:DP HDMI 双DVI的阵型无论是对付多个显示设备还是多种显示设备均毫无压力。
测试时所有游戏中开启全部特效,包括4X抗锯齿(AA)和16X各向异性过滤(AF)。虽然很多游戏提供了更高精度的AA,但由于实用价值不高,且没有可对比性,所以不做测试。
目前也有部分显示器是(1920x1200),游戏在这种分辨率下的性能表现与1920x1080差不多,FPS稍低一点点,使用这种显示器的朋友依然可以参考我们的测试成绩。
GTX TITAN Black
● 测试平台主板:技嘉G1.Sniper M3
技嘉 G1.Sniper M3是一款采用m-ATX板型设计的高端Z77主板,它结合了屡获殊荣的G1.Killer设计理念,目标是给玩家提供强大的性能。无论是内建Creative专业级音效处理器、Sound Core3D高质感音效输出还是支持 cFosSpeed 与网络加速技术的芯片,都是为了让玩家能有最棒的娱乐和联网游戏体验。
● 测试平台电源:Antec HCP1200
安钛克Antec HCP1200电源在世界超频大赛中非常常见,通过了80PLUS认证,转换效率高达92.4%,支持4路12V输出,最高电流72A,支持四卡SLI/交火。平均无故障运行时间为10万小时。配备一颗8cm静音风扇,运行噪音极低。
● 测试平台SSD:OCZ Vetrx3 240GB
OCZ的Vertex系列属于它的高端固态硬盘,专门为高端玩家和存储发烧友设计。随着Sandforce控制器大红大紫,OCZ也将Vertex系列升级到了全新的SF1200方案。如今SATA3.0 6Gbps接口大行其道,OCZ推出了基于SF2200系列主控芯片的Vertex 3固态硬盘,涵盖60-480GB容量范围。
既然针对平台不同,测试项目自然也相去甚远。三大平台除了PC追求极致性能外,笔记本和平板都受限于电池和移动因素,性能不是很高,因此之前的3Dmark11虽然有三档可选,依然不能准确衡量移动设备的真实性能。
3DMARK主界面
而这次Futuremark为移动平台量身定做了专有测试方案,新一代3DMark三个场景的画面精细程度以及对配置的要求可谓天差地别。
Fire Strike、Cloud Gate、Ice Storm三大场景,他们分别对应当前最热门的三大类型的电脑——台式电脑、笔记本电脑和平板电脑。
最新的3DMARK软件,最严苛的Fire Strike Extreme模式中,GTX TITAN BE以4959的成绩遥遥领先于其它显卡,即便是新3DMark比较偏A也丝毫动摇不了它的王者地位。
<
3DMark11的测试重点是实时利用DX11 API更新和渲染复杂的游戏世界,通过六个不同测试环节得到一个综合评分,藉此评判一套PC系统的基准性能水平。
● 3DMark 11的特色与亮点:
1、原生支持DirectX 11:基于原生DX11引擎,全面使用DX11 API的所有新特性,包括曲面细分、计算着色器、多线程。
2、原生支持64bit,保留32bit:原生64位编译程序,独立的32位、64位可执行文件,并支持兼容模式。
3、新测试场景:总计六个测试场景,包括四个图形测试(其实是两个场景)、一个物理测试、一个综合测试,全面衡量GPU、CPU性能。
4、抛弃PhysX,使用Bullet物理引擎:抛弃封闭的NVIDIA PhysX而改用开源的Bullet专业物理库,支持碰撞检测、刚体、软体,根据ZLib授权协议而免费使用。
3Dmark11大量特效堆砌出来的以假乱真的画面让高端也不能完全流畅运行它,只有GTX TITAN BE稍微流畅一些。本次测试中所有显卡一视同仁开启Extreme模式,主流级和旗舰级性能差距依旧非常明显。这个测试项目和最新的3DMARK软件测试成绩正好相反,N卡在3DMARK11中占据了不小优势。
对于现代显卡测试而言,除了3DMark之外必不可少的项目就是来自俄罗斯的Unigine Heaven(天堂),尤以其高负载、高压榨而知名。现在,新一代3DMark发布之后,Unigine也奉上了全新的显卡测试程序“Valley”(山谷)。
Valley正是Heaven的开发团队一手打造的,可以在最大程度上榨干GPU显卡资源。这次场景来到了一个优美空灵的山谷,群山环绕,郁郁葱葱,白雪皑皑,旭日初升,而且拥有极致的细节,每一片花瓣、每一株小草都清晰可见。
主要技术特点包括:
— 场景面积达6400万平方米,超高细节
— 整个场景可以完全自由浏览,并支持鸟瞰、漫步模式
— 先进视觉技术:动态天空、体积云、阳光散射、景深、环境光遮蔽
— 所有植被、岩石均为实时渲染,而非贴图
— 用户可控的动态天气
— 支持立体3D、多屏幕
— 极限硬件稳定性测试
— 基准测试预设
— 监视每一帧画面对应的GPU温度和频率
— 多平台支持:Windows、Linux、Mac OS X
— 支持命令行自动执行
— CSV格式可定制报告
Unigine Valley分为基础版、高级版、专业版三个版本,其中基础版免费,支持测试预设、自定义设置、GPU监视、交互模式,不支持循环测试(也就是拷机模式)、命令行、CSV报告,对于普通用户和一般评测足够用了。
Unigine Valley的场景面积达6400万平方米,超高细节,对显卡渲染提出了很大的考验,在未来的游戏中,类似的情况将会越来越多。GTX TITAN BE在极端HD模式下达到67.6FPS。
《孤岛危机3》支持大量的高端图形选项以及高分辨率材质。在游戏中,PC玩家将能看到一系列的选项,包括了游戏效果、物品细节、粒子系统、后置处理、着色器、阴影、水体、各向异性过滤、材质分辨率、动态模糊以及自然光。技术主管Marco Corbetta表示之所以《孤岛危机2》并不包含这么多的选项,是因为开发主机板的开发组实在是搞的太慢了。
● 实时体积烟云阴影(Real-Time Volumetric Cloud Shadows)
实时体积烟云阴影(Real-Time Volumetric Cloud Shadows)是把容积云,烟雾和粒子阴影效果结合起来的一种技术。和之前的类似技术相比,实时体积烟云阴影技术允许动态生成的烟雾拥有体积并且对光线造成影响,和其他物体的纹理渲染互动变化。
● 像素精度置换贴图(Pixel Accurate Displacement Mapping)
像素精度置换贴图(Pixel Accurate Displacement Mapping)可以让CryEngine 3引擎无需借助DX11的细分曲面技术即可一次渲染出大量没有明显棱角的多边形。此前crytek曾透露过正在考虑在主机上实现类似PC上需要DX11硬件才能实现的细分曲面效果,看来此言非虚,新型的位移贴图技术来模拟细分曲面的效果。虽然实现原理完全不同,但效果看起来毫不逊色。
极度精细逼真,完全嵌合的植被(Tessellated Vegetation)
● 实时区域光照(Real-Time Area Lights)
实时区域光照(Real-Time Area Lights)从单纯的模拟点光源照射及投影进化到区域光照的实现,以及可变半阴影(即投影随着距离的拉长出现模糊效果),更准确的模拟真实环境的光照特性。
● 布料植被综合模拟(Integrated Cloth & Vegetation Simulation)
布料植被综合模拟(Integrated Cloth & Vegetation Simulation)其实在孤岛危机1代中植被已经有了非常不错的物理效果,会因为人物经过而摆动,但是这次crytek更加强化了这方面的效果,还有就是加入了对布料材质的物理模拟,这方面之前只有nvidia的physx做得比较好。
● 动态体积水反射(Dynamic Water Volume Caustics)
动态体积水反射(Dynamic Water Volume Caustics)孤岛危机1和2基本上在水的表现上集中在海水,很少有湖泊和类似大面积积水潭的场景,而这次crytek实现了超远视野的水面动态反射。动态体积水反射可以说是孤岛危机2中的本地实时反射的一个延伸,是结合静态环境采样和动态效果的新的水面反射技术。
绝密细分的蟾蜍惊艳绝伦,完全可以以假乱真!
作为新一代DX11游戏的画质标杆,孤岛危机3相比上一代对显卡提出了更高的要求,而在这款代表着最尖端画质的游戏显卡优化做的非常出色,我们可以看到GTX TITAN BE以明显优势领先普通版GTX TITAN!
这些年我们看到了不少形态各异的劳拉,从丰乳肥臀的动作游戏主角到喜欢探索亚特兰蒂斯文明的睿智贵族。不过我们从未见过这样的劳拉。Crystal Dynamics的《古墓丽影9》让我们看到了一个参加初次探险的年轻劳拉,她遭遇海难被困在刀枪林立的小岛上,必须将自己的智谋和求生欲望提升到极限。
剧情介绍:故事从年少时期的劳拉开始,劳拉所乘坐的“坚忍号”仿佛是被宿命所呼唤,在日本海的魔鬼海遭遇到了台风,不幸搁浅。劳拉也被迫到岛上开始自己的求生经历。
古墓丽影9的游戏画面较之前代上升了不少,游戏要求也提高了不少。
这是我们开启不同画质的游戏截图对比,可以看出“高”特效的画质已经非常不错了。
古墓丽影9对A卡的优化非常到位,但N卡驱动后来也进行了不断的优化,游戏性能得到大幅提升。在Benchmark测试中,1080P分辨率+“最高”画质下,GTX TITAN BE可以非常流畅的运行。
由EA DICE工作室开发的《战地3》采用了最新的“寒霜2”引擎,完美支持DirectX 11,并且拥有强大的物理效果,最大的亮点还是光照系统,其渲染的场景已近乎乱真的地步,视觉效果堪称绝赞。游戏还支持即时昼夜系统,为玩家营造一个亲临现场的真实环境。
寒霜2引擎最大的特点便是支持大规模的破坏效果。由于考虑到游戏的画面表现以及开发成本,DICE放弃了以只支持DX9的WINDOWS XP操作系统。另外由于该引擎基于DX11研发,向下兼容DX10,因而游戏只能运行于WINDOWS VISTA以上的的操作系统。
在《战地3》中,“寒霜引擎2”内置的破坏系统已经被提升至3.0版本,对于本作中的一些高层建筑来说,新版的破坏系统将发挥出电影《2012》那般的灾难效果,突如其来的建筑倒塌将震撼每一位玩家的眼球。
《战地3》采用了ANT引擎制作人物的动作效果。在此之前,ANT引擎已在EA Sports旗下的《FIFA》等游戏中得到应用,不过在FPS游戏中使用尚属首次。相较于Havok等物理引擎,用ANT引擎可以花费较少的精力制作出逼真的效果。举例来说,战士在下蹲时会先低头俯身、放低枪口,而不是像以前的游戏那样头、身、枪如木偶般同时发生位移。此外,ANT引擎也可以让电脑AI的行动更加合理。但这款大作目前并不能良好的兼容120Hz3D以及红蓝3D模式。
寒霜2引擎大作战地三,是为数不多的画面可以挑战Crysis的游戏大作,而对核心和显存的要求已经超越了Crysis!越是要求变态的游戏,旗舰级显卡就越喜欢,这款游戏N卡整体占优。
游戏介绍:《地铁2033》(Metro 2033)是俄罗斯工作室4A Games开发的一款新作,也是DX11游戏的新成员。该游戏的核心引擎是号称自主全新研发的4A Engine,支持当今几乎所有画质技术,比如高分辨率纹理、GPU PhysX物理加速、硬件曲面细分、形态学抗锯齿(MLAA)、并行计算景深、屏幕环境光遮蔽(SSAO)、次表面散射、视差贴图、物体动态模糊等等。
开启景深,模拟镜头感
画面设置:《地铁2033》虽然支持PhysX,但对CPU软件加速支持的也很好,因此使用A卡玩游戏时并不会因PhysX效果而拖累性能。该游戏由于加入了太多的尖端技术导致要求非常BT,以至于我们都不敢开启抗锯齿进行测试,只是将游戏内置的效果调至最高。游戏自带Benchmark,这段画战斗场景并不是很宏大,但已经让高端显卡不堪重负了。
测试说明:如果说是CRYSIS发动了DX10时代的显卡危机,那地铁2033无疑是DX11时代的显卡杀手!地铁2033几乎支持当时可以采用的所有新技术,在画面雕琢上大肆铺张,全然不顾显卡们的感受,和CRYSIS如出一辙。然而CRYSIS靠着特效的堆积和不错的优化,其惊艳绝伦的画面和DX9C游戏拉开了距离,终究赚足了眼球;而地铁则没有这么好运了,画面固然不差,BUG却是很多,招来了大量的非议。
地铁2033,一款销量惨淡,游戏性被人遗忘但却家喻户晓的游戏,DX11游戏中的奇葩。这款游戏本来是A卡优势项目,但GTX TITAN BE依然凭借强劲的实力领先对手。
游戏引擎开发商BitSquid与游戏开发商Fatshark近日联合公布了一个展示DX11强大技术的DEMO。这个名为《StoneGiant》(石巨人)的DEMO,可以让玩家来测试自己PC显卡的DX11性能。BitSquid Tech即将提供PC平台的引擎,并且大概在今年第三季度将提供PS3和Xbox 360等其他平台的引擎。
画面设置:StoneGiant是一款技术演示Demo,画面做的非常精美,进入之后可以选择开启关闭Tessellation以及DOF(DX11级别景深)进行测试,这两项技术都十分消耗资源,尤其是同时打开时。其中Tessellation技术对画质的改善最为明显,测试时默认开启Tessellation、打开DOF进行测试。
测试方法:自带Benchmark。
看得出来,A卡的“压力”确实很大,Tessellation特效使用的越多,其表现就越差,这是架构特性使然,但总的来说和上代相比进步很多,和N卡的差距已经越来越小了。
《Aliens vs. Predator》同时登陆PC、X360和PS3,其中PC版因为支持DX11里的细分曲面(Tessellation)、高清环境光遮蔽(HDAO)、计算着色器后期处理、真实阴影等技术而备受关注,是AMD大力推行的游戏之一,但是这样的主题难免让本作有很多不和谐的地方,暴力血腥场面必然不会少!发行商世嘉在2009年11月就曾明志,表示不会为了通过审查而放弃电子娱乐产品发行商的责任,因为游戏要维持“异形大战铁血战士”这一中心主题,无论画面、玩法还是故事线都不能偏离。
画面设置AVP原始版本并不支持AA,但升级至1.1版本之后,MSAA选项出现在了DX11增强特效当中,当然还支持Tessellation、HDAO、DirectCompute等招牌。该游戏要求不算太高,所以笔者直接将特效调至最高进行测试。
测试方法:游戏带Benchmark,其中测试画面颇代表意义,很好的体现了Tessellation异形身体以及HDAO等高级特效,希望这些特效能让系统发挥所有潜力。
AVP测试环节中2560分辨率下高端A卡表现很不错,这主要是R9 290X 512bit大位宽和核心像素渲染速度的优势体现!
我们的功耗测试方法是直接统计整套平台的总功耗,既简单、又直观。测试仪器为微型电力监测仪,它通过实时监控输入电源的电压和电流计算出当前的功率,这样得到的数值就是包括CPU、主板、内存、硬盘、显卡、电源以及线路损耗在内的主机总功率(不包括显示器)。
待机为windows7桌面下获得的最小值;满载是以1680X1050模式运行Furmark时的最大值,Furmark能够让显卡稳定的以100%满负载模式运行,测得的功耗值比一般的游戏要高一些。
● 显卡空闲整机功耗测试(显示器除外)
● 显卡满载整机功耗测试(显示器除外)
● 显卡空闲GPU温度测试● 显卡满载GPU温度测试
待机功耗TITAN BE的表现不尽如人意,整机(不包含显示器)达到了将近93W,满载以后功耗控制倒是不错,只有323W,比R9 290X低了不少,温度测试方面,GTX TITAN BE也是凭借低功耗低发热和散热器双重优势完胜对手。
如今,Kepler架构终极形态GeForce GTX TITAN BE的发布,NVIDIA又一次提高了游戏行业的标准,同时以GPU为核心的计算模式再次被发扬光大。
Kepler GK110设计的初衷就是利用卓越的电源效率达到最大化计算性能和吞吐量。该架构有很多创新,如SMX、Dynamic Parallelism 和 Hyper‐Q等等,这些功能不仅使混合计算大大简化,同时也简化了编程接口,有望催生出更优秀的软件,适用于更广泛的应用。
云计算也是NVIDIA一直在研究的重要课题
以后台式电脑不仅仅是一台PC而要承担起家庭影音处理中心的任务
● GTX TITAN BE的优势:
1. 游戏性能强悍;
2. 温度噪音控制的非常理想;
3. 强劲的双精度浮点运算能力,6GB海量高速内存;
● GTX TITAN BE的劣势:
1. 和未来的MAXWELL架构旗舰相比,功耗性能都将不占优势;(猜测)
2. TITAN的晶体管数达到恐怖的71亿,再加上6GB 384bit显存,成本降不下来,售价无疑也是很昂贵,并非一般用户可以承受。
目前没有游戏可以对GTX TITAN BE构成威胁
GK110以其无以伦比的性能证明了它是地球最快的GPU,而单芯卡皇的意义就在于,在那些对多卡支持不佳的游戏中也能发挥出过人的实力,而在多屏超大分辨率或3D立体游戏中,三块TITAN BE的系统也将比两块GTX690更强大。从游戏显卡的角度来看,GTX TITAN BE是一款接近完美的产品,拥有最强性能的同时,还很好的控制住了功耗、发热和噪音。从GPU计算的角度来说,在并行计算、超级计算机市场,GK110核心更是如鱼得水,事实上GTX TITAN的专业版Tesla K20X已经被使用在了很多超级计算机之上,GTX TITAN BE让追求极致和完美的用户有了新的目标!■<