十年磨一剑!NVIDIA霸王伟业坎坷历程
[泡泡网显卡频道8月4日] 十年前——1999年8月。在NVIDIA凭借TNT以及后续的TNT2成功的战胜了当时不可一世的3DFX VOODOO之后,又推出了一款当时并不被大家所重视的产品,而这款产品却标志着显卡的地位走向了一个新的高度,显卡历史从此翻开了新的一页。
这款产品就是NVIDIA的第一款GPU图形核心——GeForce 256。在那个Direct7时代,多边形转换和光照处理全部是由CPU负责的,大量复杂运算对CPU造成了极大的负担,而GeForce 256却可以硬件支持这两项技术,大大减轻了CPU的负担。
Geforce 256具有了目前GPU的大部分初步特征,并拥有当时惊人的4条象素管线(虽然放在现在看不算什么)。因此Geforce 256的纹理处理性能是之前TNT2的两倍,同时这也是第一个使用DDR显存的显卡。这款显卡的出现也标志着NVIDIA正式进入了Geforce时代。这篇文章就是以Geforce 256为开端,深度回顾NVIDIA如何坎坷的走过了这10年的漫长时间。
转眼到了2000年5月,NVIDIA发布了代号为NV15的新一代图形核心,由于其纹理填充率达到了创纪录1.6Giga texels/sec,也是第一个纹理填充率过亿的GPU,所以NVIDIA将其命名为GeForce2 GTS以纪念其特殊的历史含义(Giga texels/sec三个单词的开头缩写)。
这款产品完整支持DirectX 7.0与OpenGL 1.2 ICD,所以不仅在3D游戏的表现超越了所有的同级显卡,在工作站级3D应用设计上也有不俗的表现。此外GeForce2 GTS在多媒体性能也有很大的提高,尤其在DVD压缩方面使用了当时最为先进的Enhance Motion CompensATIon硬件解压缩技术,使得DVD的品质与速度得到了相当大的提升。
同年为了阻击ATI的Radeon256,NVIDIA推出了GeForce2 GTS的超频版本——GeForce2 Ultra,其核心频率达到了惊人的250MHz。GeForce 2 Ultra的峰值像素填充率更是达到了1GB/s,而其纹理填充率高到2GB/s,完胜ATI的Radeon256。
一年过去了,到了2001年秋,NVIDIA推出了GeForce Titanium系列显卡,首批发布的产品为GeForce2 Ti,这款产品和GeForce2 Pro的规格完全一样,只是在对核心工艺有所改进,相应的PCB(尤其在PWM部分)有所简化,使其成本价格降低了20美元左右,从而更加贴近消费者。
另外NVIDIA还针对低端市场推出了一代经典产品GeForce 2 MX,Geforce2 MX和之前的TNT2一样具有两条像素管线,但频率大大提高,因此材质填充速度也比Geforce 256快很多。
同时GeForce2 MX系列也是NVIDIA第一款支持双头技术的显卡,可以让一块显卡同时驱动两个独立的显示器。并且这个系列的显卡还支持苹果平台,并作为Apple Power Macintosh G4的缺省高挡图形方案。GeForce2 MX系列主要包括GeForce2 MX、GeForce2 MX200、GeForce2 MX400。
在这一年还发生了一件震惊显卡行业的大事:NVIDIA以一亿一千二百万美元的价格正式收购了3D加速卡的鼻祖——3DFX,显卡市场从此由三国鼎立演变为NVIDIA与ATI两雄争霸的局势。
2001年微软正式推出了划时代的DirectX8.0,将可编程的着色管线概念正式引入到GPU。NVIDIA也在这个时候正式发布Geforce 3,核心代号为NV20。从这个系列开始可编程的nFiniteFX SHADER引擎正式被引入,完整实现了对Pixel shaders和Vertex shaders处理单元的硬件支持,Geforce 3也是这个时期唯一完全可以支持DirectX8.0的GPU。
Geforce 3默认核心频率为200MHz,拥有4条管线,每管线2个TMU(纹理贴图单元),这和Geforce 2是一样的,所不同的是Geforce 3还拥有一个Vertex shaders 单元,以及4个Pixel shaders单元,这也是和Geforce 2质的区别。
在2001年的下半年,ATI迟迟推出了Radeon 8500,而NVIDIA又做出了快速响应将GeForce 3系列细分为GeForce 3 Ti200和GeForce 3 Ti500,其中GeForce3 TI500拥有系列中最高的频率,达到240/250MHz,用来直接对抗Radeon 8500。
虽然NVIDIA推出了GeForce 3 Ti500用来对抗ATI的Radeon 8500,但结果并未取得完全胜利,只和其打成平手。NVIDIA为了巩固自己的地位,在2002年2月,NVIDIA发布了研发代号为NV25的GeForce4 Ti系列显卡,这款产品是DirectX8中最强劲的GPU图形处理器。
从总体上看,GeForce4 Ti是在GeForce3的加强优化版本,核心增加了一个顶点单元,同时频率也比GeForce3有了很大的提升。这次NVIDIA从一开始就已经对其细分为4600、4400、4200三个系列,其中的GeForce 4 Ti 4200性价比高,性价比高,深深受消费者喜爱。
而GeForce Ti 4600是系列的最高端,其使用了加长型PCB,用料极为豪华,并使用了当时最快的3NS的GDDR显存。频率更是达到惊人的300/300MHz。其当时的售价更是非常昂贵,达到了300美元以上。
在低端部分,NVIDIA推出了核心代号为NV18的GeForce 4 MX440,从核心编号上看GeForce 4 MX定位于GeForce 2 MX的升级产品,和TI系列相比晶体管数量由5700万缩减为了2900万,在速度上只和之前的GeForce 2 GTS差不多。
到了DirectX9.0时代,NVIDIA开始遇到问题,受XBOX合同的影响微软在DirectX 9规范的制定过程中,竟然没有考虑任何NVIDIA的意见。在参考了ATI的部分提议后,微软将24BIT渲染精度、着重于Shader并行处理性能等作为DirectX 9的主要特点。
在这种大背景下,又经过数次延期修改,并打破了NVIDIA过去半年发布一款核心的规律之后,首款GeForce FX系列产品——NV30问世了。由于采用了3DFX的反锯齿技术,NVIDIA将其正式命名为GeForce FX 5800 Ultra,并于2003年初上市。但这款产品在DirectX 9下浮点处理能力严重不足。
NVIDIA直到2003年10月24日又亡羊补牢发布了NV30的改进版本——NV38,将其命名为GeForce FX 5950 Ultra。NV38采用了更为成熟的0.13mm的生产工艺,有利于产能的扩大以及芯片频率的提高、功耗的下降。虽然性能有所提高但还是未能挽回惨败的局面。进入2004年后,由于DirectX 9的普及速度被加快,使得GeForce FX系列浮点处理能力不足的缺陷完全暴露了出来。
直到2004年4月13日,历时18个月,NVIDIA发布了新一代NV40图形核心,并正式名称命名为GeForce 6800Ultra,NV40使用了空前的2.22亿个晶体管,具有创纪录的16条完整像素管线,其非常好的性能也使NVIDIA也重新成为图形显示技术的领先者。
从今天眼光来看,NV40绝对是一款不记代价的复仇之作。其最大的特点可以用“加倍”来形容,整体上讲,NV40的晶体管为2.22个,是对手上一代R300的2倍。内部架构方面,像素着色器单元、ROP单元、TMU单元,也是对手的两倍。而且NV40还率先提供了对DriectX 9.0C中SM3.0技术的完整支持。
之后NVIDIA在Computex2004展会上又推出了首款PCI-E的产品——基于NV45的6800Ultra。之前3DFX的另一项关键技术——SLI,也在这款产品上焕发出了新的生机。这款产品也可以看做NVIDIA的转折点,标志着其显卡在ATI之前率先进入了多卡时代。
在渡过了2004年中后期在市场上的困难时期后,吸取了GeForce FX系列的经验教训的NVIDIA也变得更加成熟,同时已经在技术上取得领先优势的NVIDIA并不给对手以喘息的机会,在2005年6月22日,在美国旧金山举行的GeForce LAN 2.0大会上正式发布新一代图形芯片G70。
G70为台积电0.11微米工艺制造,由于管线数达到空前的24条,其内部集成了3.02个亿晶体管,核心面积超过300平方毫米,也是当时业内最复杂图形核心。但是由于制程的改进,其功耗可以略低于NV40。
2006年3月9日,在CeBIT2006展会上NVIDIA正式推出了G70的继任者G71图形核心。当时G71核心发布后,也使很多人都感到惊讶,因为新发布的优异核心在晶体管数量上反而低于其前任,这在历史上恐怕还是第一次,这也反映出了NVIDIA的魄力与对局势的准确把握。
作为NV新一代旗舰级核心,G71拥有2.78亿个晶体管,较G70下降10%,而且由于采用了成熟的90nm工艺,核心面积仅有196mm2,使得制造成本显著下降,良品率更高。同时可以在降低功耗、发热的同时,大幅度提高核心的运行频率,7900GTX(650MHz)的核心频率比7800GTX(430MHz)高出了220MHz,提升达50%,两代优异显卡的频率差距如此之大,在历史上恐怕也不多见。
在取得了GeForce 6和GeForce 7的巨大成功之后,NVIDIA丝毫没有松懈,再接再厉,领先ATI整整半年的时间,推出了首款支持DX10的显卡——GeForce 8800GTX(G80)。从此显卡的架构发生了根本性的改变。
从G80开始NVIDIA全部采用统一渲染架构,其架构中顶点的渲染管线的区别已经不复存在,取而代之的是8组并行的阵列,每组阵列中有16个流处理器和8个纹理单元,这样G80总共拥有128个流处理器和64个纹理单元。
G80的统一渲染架构基于庞大规模的流处理器来动态分配给各种操作。可以让每个处理单元都参与运算,每个流处理器均能够处理顶点、像素和几何操作,从而达到提高GPU的利用效率。
GeForce 8800GTX配备了当时PC显卡上最高的768MB GDDR3显存,显存为384bit位宽,频率为900MHz带宽更达到空前的86GB/s。作为新一代的旗舰产品,拥有当时最强大的硬件规格、最强悍的3D渲染效能。并且显卡上首次集成了两个SLI金手指,可以组建更为强大的GeForce 8800GTX三卡SLI。
到了2007年底,NVIDIA推出了至今仍在服役的最为经典的核心——G92,这款核心不仅在发布时就被很多人所注意,并且凭借其优秀的架构在一上市就打败了比其定位更为高端的8800GTS,甚至直到两年后的今天也牢牢的占据着中端的位置。
G92系列最先发布的型号为8800GT,在规格上创下了很多个第一:NVIDIA首颗65nm工艺的GPU、首次支持PCI Express 2.0带宽翻倍、高端GPU第一次提供高清硬件加速技术等。核心拥有112个流处理器,规格/性能介于8800GTS和8800GTX之间,而设计功耗仅105W,几乎下降了一半。
而之后NVIDIA做出了倍受争议的行为——为自己的G92核心的产品“换马甲”。从一开始的8800GTS(G92)更名为9800GTX、8800GS更名为9600GSO、到后来的8800GT更名为9800GT,9800GTX/GTX+更名为GTS250等,被很多网友指责为“换汤不换药”,但值得肯定的是G92历经3代依然“宝刀未老”并牢牢占据新一代中端显卡位置,可想其架构的优越性。
时间转眼又到了2008年,NVIDIA又为我们带来了一个惊喜,发布了基于第二代统一渲染架构的GTX280,其性能大幅超过前任9800GTX,重新定义了高端显卡的性能标准。这款产品和上代的G80/G92相比,几乎所有的微架构都作了调整,并大幅扩充规模。
GT200系列中最高端的产品为GTX280,其采用了比较保守的65nm工艺,拥有的流处理器数量几乎是上一代的2倍——达到了惊人的240个。这款核心不仅仅在游戏的表现上非常突出,并且完美的支持PhysX物理加速技术,以及CUDA通用计算技术,从而在图形处理上大大提高了工作效率。
在今年一月份,NVIDIA又推出了GTX280的55nm版本,为了和之前的产品作出区别,将其命名为GTX285。这两款产品的架构基本相同,但由于工艺的提升,GTX285的默认频率更高,并且工作温度更低,成为新一代的单核心王者。
以上我们已经回顾了NVIDIA这十年来历代显卡的发展历程,可以看出这其中并不是一帆风顺的,而是通过不断的总结失败的教训,从而不断的对产品进行改进,NVIDIA才取得了今天的霸主地位。10多年来,NVIDIA依靠自身的技术实力,创造了一个又一个的成长奇迹,在对手纷纷倒下的同时实现了自身的空前发展,
另外NVIDIA的下一代GPU产品——GT300核心,将在11月发布。GT300将采用重新设计的构架,完全不同于GT200。将采用先进的40nm制造工艺,理论上发热量大大降低,并首次搭配GDDR5显存,相信这款产品将会给我们带来更大的惊喜。■<