泡泡网显卡频道 PCPOP首页      /      显卡     /      评测    /    正文

成就3D图形霸业!NVIDIA历代显卡回顾

p;  
 
最具争议的作品——GeForce FX系列

    公元2002年11月18日,Comdex 2002上,NVIDIA发布了研发代号NV30的GeForce FX,这也成了历史上Nvidia最具争议的一款产品。在回顾GeForce FX系列产品前,我们不妨先对NV30的问世背景做个简单介绍。
 
{imageTitle}
 
 GeForce FX看上去很美好
 
    众所周知,从DirectX 6时代确立优势地位以来,经过DirectX 7、8两代的发展,伴随着与微软的良好合作,NVIDIA成为了桌面PC独立显示核心的霸主,市场占有率成倍提升。在收购了3DFX以后,NVIDIA又通过GeForce 3、4两代产品在市场占有率方面击败了另一个对手ATI,而且,通过雄厚的技术实力,其每半年更新一代的做法也令对手疲于奔命。随着GeForce 4的成功,NVIDIA也处于历史上的最巅峰时期,产品不仅局限于PC显示核心,更延伸到主版芯片组,电视游戏机领域。
 
    不过NVIDIA的一家独大也引起了一些业内人士的不满,他们指责NVIDIA是图形业内的INTEL。当然这也使与NVIDIA一贯合作良好的微软有所注意,尤其是NVIDIA在DirectX 8标准制定过程中的某些做法以及开发自主的CG语言等,使得微软不等不重新审视这个昔日的合作伙伴,两家公司的开始逐渐变得貌合神离。
 
    后来,在NVIDIA为微软提供XBOX硬件解决方案的过程中,随着制造工艺的进步,硬件产品的制造成本是逐渐下降的,但是NVIDIA与微软的合同中并未考虑这一点,等到微软意识到这一点后,希望修改合同中的部分内容,但却遭到了NVIDIA的拒绝……
 
{imageTitle}
 
 DX9第一代产品让NVIDIA一败涂地
 
    作为回应,DirectX 9规范的制定过程中,竟然没有考虑任何NVIDIA的意见。在参考了ATI的部分提议后,微软将24BIT渲染精度、着重于Shader并行处理性能等作为DirectX 9的主要特点。除此之外,在年底发布的3DMARK03中,微软的影响也是显而易见,NVIDIA这时再也按耐不住,对3DMARK的开发公司Futuremark进行了公开的指责。
 
{imageTitle}
 NVIDIA忙碌于芯片组的研发
 
    再来看NVIDIA自身方面,2001年秋到2002年底也是其历史上最忙碌的一段时间。除了半年一次的GPU升级之外,NVIDIA还要根据合同为微软开发XBOX用SoundStorm音频处理芯片以及XBOX的主板。而且在主版芯片组领域,NVIDIA的压力更大,在经历了NForce遭受冷遇的开局后,无疑对雄心勃勃的NVIDIA打击不小。所以在NForce2上,NVIDIA倾尽全力,誓要在AMD平台与VIA一较高下。摊子铺的过开,也使NVIDIA开发资源变得分散。
 
    综上所述,在这种大背景下,经过数次延期修改,并打破了NVIDIA过去半年发布一款核心的规律之后,NV30问世了。由于采用了3DFX的反锯齿技术,NVIDIA将其正式命名为GeForce FX 5800 Ultra,并于2003年初上市。
 
{imageTitle}  
 
    NV30像素管线部分采用了成熟的4X2架构,为当时领先的0.13微米制程制造,核心集成的晶体管数达到创纪录的1.25亿个,由于较高的默认频率,所以其功耗、与发热非常之大,为此NVIDIA使用了称为名为“FX Flow”的散热系统,包含一个铜制散热片、热管和换气装置。
 
{imageTitle}
 
 “FX Flow”散热系统
 
    GeForce FX 5800 Ultra使用Flip-Chip封装设计,频率提高到了惊人的500MHz。BGA和Flip-Chip封装方式的芯片,可以直接和插槽接触,缩短布线距离,同时也提高了信噪比,可以适应更高频率,并降低功耗。
 
{imageTitle}
 
 Flip-Chip BGA
    核心渲染架构方面,NV30首次引入了CineFX着色引擎。其中的Cine是Cinematic(电影般的)的缩写,而FX则表示其部分技术源自3DFX。CineFX的意思就是指新一代核心可以渲染出电影般的视觉效。
 
{imageTitle}
 
CineFX引擎  

    在CineFX着色引擎中,具有32个128位浮点处理器。并在PC图形核心历史上首次提供了128bit色彩精度的支持,并且可以在同一个着色程序中的不同色彩精度中切换。
 
{imageTitle}
 
SHADER规格对比

     NV30的顶点着色单元较前代也有了质的飞跃,可以支持到Vertex Shader 2.0+,所能处理的最大指令数为65536,这一点远远高于DX9.0的规范。而且,初级的动态循环和分支指令的引入提高了着色单元的可编程性。像素着色单元支持Pixel Shader 2.0+,同样也超出了DX9.0规范,最大指令数提高到1024,对于每一个像素最大可进行16个纹理贴图操作,而且像素单元可以支持更多的高级指令,并且可以进行指令预判。总的来说,CineFX引擎支持更多的指令,因此可以带给开发者更大的发挥空间。

 
    同时CineFX引擎也可以很好的支持NVIDIA的Cg(C for Graphics)编程语言,使得开发人员可以利用Cg语言而无需针对底层硬件进行编程,从而降低了图形编程的难度,可以更方便、快捷的开发出游戏所需要的渲染效果。
 
{imageTitle}
 
高度灵活的CG语言

    在反锯齿方面,4X FSAA是NV30设计的中心,也是NV30硬件效率最高的操作。为了使4X FSAA运行更快,NV30在反锯齿设计上进行了重新制定,每个数据通道的宽度都为4X FSAA做了优化。同时,NV30还首次采用了Intellisample(智能采样)、(Adaptive Texture Filtering)自适应纹理过滤等技术一提供更好画面质量。
 
{imageTitle}
 
让人想入非非的渲染效果

    在内存控制方面,NV30采用了4X32bit共128bit的位宽。由于采用了全新的DDR-II显存,所以NV30在GeForce 4的LMA II的基础上(Lightspeed Memory Architecture,光速内存结构)针对DDR-II做了相应的优化设计。这款内存控制器实际上是全新设计,对4X FASS进行了全速优化。ROP(光栅化处理器)、帧缓存等都是根据它来设计的。而且它运行在2X的核心频率上,可以充分利用DDR-II的特性。
 
{imageTitle}
 
DDR-II SDRAM

    GeForce FX 5800 Ultra的DDR-II SDRAM显存运行频率为1GHz,不过由于是128BIT位宽,和对手的Radeon 9700相比,其峰值带宽落后25%。但由于新型LMA内存控制器提高了Z-culling和压缩方面的性能,顶点、纹理和Z轴数据都进行了压缩以节省带宽,在程序配合较好的情况下,NV30可以更有效的使用带宽。再加上Z-occlusion和纹理压缩等技术,GeForce FX 5800 Ultra的实际最大带宽可以达到20GB/s。
 
    虽然在2002年11月18日NV30就已经发布,但是由于0.13微米制程等因素的延误,直到2003年2月,GeForce FX 5800 Ultra才正式上市,而且由于当时0.13微米工艺并不完善以及较高的核心频率,导致NV30芯片发热量极大,必须采用“FX Flow"散热系统。为了保证核心以及DDRII显存在高达500MHz的频率下稳定工作,nVidia不等不比较独特的采用12层PCB设计,同时供电电路的做工用料也是非常豪华,再加上DDRII显存在当时的价格也是十分昂贵,这些因素使得GeForce FX 5800 Ultra的成本异常之高且功耗也十分巨大。所以其上市售价也接近500美元,十分惊人。由于上市时间的延误以及核心自身的不成熟,GeForce FX 5800系列的辉煌也只持续了不到3个月,就被下一代的GeForce FX 5900所替代。

2人已赞

关注我们

泡泡网

手机扫码关注