查看: 14329|回复: 23
收起左侧

[转贴]成就3D图形霸业!NVIDIA历代显卡回顾

 关闭 [复制链接]
SpeedDrift
发表于 2008-8-29 18:55:14 | 显示全部楼层 |阅读模式
1995年11月6日,从3DFX发布首款具有3D加速功能的VOODOO芯片开始,电脑图形核心正式进入了3D时代。在此之后,众多的3D显示产品设计、制造厂商投入到了这个全新的领域中,不过经过多年来激烈的市场竞争的洗礼,时至今日,NVIDIA与ATI的两强争霸成为了桌面独立图形领域竞争的主旋律。而当年也曾叱诧一时的许多名字,如SGI、SIS、TRIDENT、3DFX、等都已成为了历史,不禁让人唏嘘不已。
    一代枭雄“野人”S3被VIA收购,3D时代昙花一现的TRIDENT被SIS收购(改名XGI图形部门),曾经不可一世的3DFX被NVIDIA收购,XGI被ATI收购,最后ATI被AMD所收购(依然是ATI图形部门)……能够在激烈的市场竞争中成功的生存并发展壮大,显然不是一件简单的事情,那么NVIDIA与ATI多年来得成功经验,也值得我们去探讨与总结。
    去年在ATI被AMD收购之后,也就是在ATI 21周岁生日那天,我们曾对这位图形巨人的全系列显示产品进行了全方位回顾与介绍。接下来本文就通过对NVIDIA产品的总结及回顾,让读者对这些年来图形芯片市场的竞争有个全面的了解。
    显卡经典回顾文章:风风雨雨21载!ATI经典显示芯片回顾
                      市占率稳居榜首!Intel显示芯片回顾
1993年NVIDIA诞生,年轻的NVIDIA后来者居上:
    NVIDIA成立于1993年1月,总部位于美国加州圣克拉拉,目前已成为在全球拥有超过3,600名员工,股票市值超过100亿美元!其图形产品广泛应用于包括个人数字媒体PC、商用PC、专业工作站、数字内容创建系统、笔记本电脑、军用导航系统和视频游戏控制台等在内的多个领域。

NVIDIA总部
    同时我们也看到,NVIDIA“并不是一个人战斗”——NVIDIA一直以来采用的都是芯片授权开放政策,在NVIDIA在自身发展的同时,也实现了与自己的合作伙伴共同发展。随着NVIDIA的发展壮大,合作伙伴的规模越来越大,也逐渐形成了一套AIC(Add-in-Cards亲密合作伙伴)制度。这无疑使得NVIDIA整体阵营实现了一个良性的发展,得以在激烈市场竞争中立于不败之地。
编者注:鸣谢NVIDIA的老牌AIC合作伙伴映众(Inno3D)独家提供全线NVIDIA显卡;并感谢NVIDIA亚太区邓培智先生提供相关技术支持。

评分

参与人数 1人气 +1 收起 理由
永远Ъù分手 + 1 版区有你更精彩: )

查看全部评分

SpeedDrift
 楼主| 发表于 2008-8-29 18:56:01 | 显示全部楼层
1993年1月,NVIDIA总裁兼首席执行官Jen-Hsun Huang(黄仁勋)与IBM专业图形适配器的技术师Curtis Priem以及Sun Microsystems的资深高级工程师Chris Malachowsky一起成了NVIDIA公司,开始了新的创业。

NVIDIA总裁兼首席执行官Jen-Hsun Huang(黄仁勋)
    当时,NVIDIA的缔造者黄仁勋先生经过细致、认真的市场调查,还咨询过Bay Area公司的图形芯片业分析师Jon Peddie,最后决定正式进入当时甚至还没有形成市场的独立3D图形芯片行业。
NVIDIA的处女作:NV1——声卡显卡二合一
    1995年5月, 在SGS-Thomson Microelectronics(ST Micro)的帮助下,发布了第一款3D图形加速芯片NV1,并为著名的Diamond EDGE3D所采用。
Diamond EDGE3D
    NVIDIA选择的3D实现方式是几家电视游戏机公司使用的forward-rendered quads技术与二次方程纹理映射(Quadratic Texture Maps,一种派生自NURBS:nonuniform rational B-splines 的算法)。而且,当时很多的3D加速卡都用到大量的小多边形来生成图形的曲线部分,由于每个多边形都包含了若干的顶点,大量的顶点处理提高了CPU的计算强度。

    而NV1采用了一种更聪明的办法,通俗的说就是把正方形自身的边线弯曲化后再组合起来,所以整体减少了多边形的用量,也将低了计算强度。二次曲面技术可以提高很好的成像质量,但是当时这一技术并未被广泛采用。

另外一个版本的NV1
    NV1还整合了一个具有350MIPS的音频处理核心,具有32路并行音频通道。音频部分支持相位抖动,很适合游戏中的特效表现(怪兽的呼吸声、枪声)。另外,音频部分具有一个DMA引擎,可以通过PCI或者VL-Bus接口直接从主存中读取数据,避免了占有显卡的存储器。
    在研发期间,多边形还没有成为3D应用程序的标准。不过,当时的3D游戏程序不少都是基于3DFX的GLIDE API开发,S3 Graphics ViRGE, Matrox Mystique, ATI Rage,和Rendition Verite V1000等显卡也都支持多边形技术,而微软在Windows 95系统中引入了以多边形填充为基础的Direct3D API,由于NV1并不支持上述两种API,而且不支持MPEG-1解码功能,所以NV1并未被PC市场所接受。
    同时,正像NVIDIA副总裁Chris指出的那样,个人电脑市场的趋势是将显卡、声卡和游戏手柄等功能分开。然而,NV1采用的集成设计,虽然提高了产品成本,但技术上背道而驰缺乏竞争力。不过,即便NV1并不成功,但是由于其提供了诸如二次纹理映射功等功能,NVIDIA逐渐树立起技术派先驱的形象。
    虽然在市场上吃了闭门羹,但是在游戏机市场,尤其是当时与任天堂双雄并立的日本家用游戏机巨头世嘉SEGA,在其新一代游戏机土星上使用了orward-rendered quads技术,这些游戏也使得NV1逐渐有了用武之地,而且SEGA也作了不少努力将土星平台的游戏移植到PC平台,如铁甲飞龙和VR战士。因此NVIDIA和SEGA也建立紧密的合作关系。
SpeedDrift
 楼主| 发表于 2008-8-29 18:56:43 | 显示全部楼层
● NV2胎死腹中,但获得世嘉资金支援
    就在NVIDIA因为NV1而陷入财政危机的时候,SEGA给NVIDIA送来了700万美元的定金,用于下一代游戏机显示芯片的开发。但是当时SEGA发现QTM有所缺陷,而且日本的游戏开发人员也开始逐渐接受了多边形成像技术,所以SEGA也希望NV2能有所进步,并派图形设计工程师小组到NVIDIA协助开发。
    但是NVIDIA则固执的坚持使用QTM技术,这也使SEGA十分失望。为了给新主机一个更好的开发环境,SEGA同时也开始与在PC游戏领域风头正劲的3DFX接触,甚至在1997年2月同SEGA秘密签署了合同,采用Banshee的onBoard版本。当然由于NEC在中间的作用,最终SEGA采用了NEC/Videologic的产品,即PowerVR(Imagination Technologies 的子公司)的图形芯片,NV2也被SEGA所弃用,最终不了了之。






    1995年8月,微软发布了Windows95操作系统,凭借崭新的图形交互式界面设计,很快席卷了全球个人电脑市场。在PC领域,微软的成功是空前的,几乎没有遇到任何可以匹敌的对手。微软的Windows95操作系统凭借接近90%(PC OS)的市场占有率,直接代动了相关硬件产品的需求,也使得全球的硬件软件厂商都不得不向其靠拢。由于微软的Windows95采用图形交互式界面(GDI),对于显示芯片有了更高的要求,这也使个人电脑市场的大幕正式揭开了!

Windows 95的震撼力远大于如今的Vista
    在之前的1995年2月,微软收购英国Rendermorphics公司,利用其所有的RealityLab 2.0技术制定了Direct3D标准,整合在其WINDOWS操作系统中,对PC图形芯片市场产生了巨大影响。
NV3=Riva 128,首次大获成功:

    此时的NVIDIA总结了前2款芯片的经验教训,在经过细致的市场分析之后,将研发的方向定位于市场前景广阔的PC图形芯片市场,并且决定加入对DirectX的支持。这无疑是个非常明智的选择,在当时由于3DFX的GLIDE的成功,各家显示芯片公司纷纷效仿,也想推出自己的3D API,例如,3dfx有GLIDE、PowerVR的PowerSGL、ATI的3DCIF,无疑使得微软Direct 3D的推广十分缓慢,NVIDIA此时选择旗帜鲜明的站到了Direct 3D的一边,这种做法也受到了微软的赏识,从而有了一个坚强的后盾。
    另外,当时在3D FPS游戏市场,独领风骚的是ID SOFRWARE的QUAKE系列,而其程序设计师JOHN CARMARK明确的拒绝了3DFX采用GLIDE的建议,而是基于公开的OPENGL API开发,这无疑也是NVIDIA得以崛起的另一个因素。而且,经过时间的考验,至今这两家公司仍然保持了非常好的关系。后来在Quake3的硬件加速问题上,John Carmack甚至拒绝提供任何形式的MiniGL加速,而要求所有图形卡运行在OpenGL ICD环境下,使得3DFX相当难堪。
NV3-RIVA 128
    接着,为配合研发方向的转变,NVIDIA聘请了David Kirk(NVIDIA首席科学家,现已当选美国国家工程院院士),并将其任命为技术总监。1997年,NV3终于面世,被命名为RIVA 128。它也是第一个提供硬件三角形引擎的128 bit图形芯片,虽然RIVA 128的图像质量比不上3dfx Voodoo,但是凭借100M/秒的像素填充率和对OPENGL的良好支持,RIVA 128在非GLIDE API的游戏中完全超过了Voodoo,迅速赢得了消费者和一些OEM厂商的青睐。
RIVA 128显卡
    Riva128支持AGP 1x规范,可以配合Intel的LX芯片组主板使用。1997年底,Dell、Gateway等厂商相继使用了RIVA 128显卡。零售市场上,Diamond、STB、ASUS、ELSA和Canopus等也都相继推出了基于此芯片的产品。不到一年,Riva 128的出货量就突破100万颗,NVIDIA终于凭借NV3打了个翻身仗。

    总的来看,Riva 128取得成功的因素是多方面的,本身的处理性能固然很重要,但是1998年游戏软件方面的发展变化也很关键:
    首先,年初ID开放了QUAKE2引擎的授权,包括VALVE在内的游戏软件开发商在3月份就获得了QUAKE2引擎的源代码,并用于游戏的开发,使得QUAKE2引擎的3D游戏名作诸如《异教徒》、《半条命》等大量上市,Riva 128良好的OpenGL性能得到了充分的发挥。
    第二,3DFX的GLIDE API失去了过去在游戏开发领域的统治地位,最著名的两个例子就当时称得上是风靡世界的古墓丽影2和极品飞车3,这两个过去本来是GLIDE的御用游戏,都加入了对D3D的支持,Riva 128等非VOODOO显卡也可以通过D3D接口很完美的运行游戏。


当时主要3D显卡规格对比

    半年后,NVIDIA又发布了Riva 128ZX,并为它提供了完整的OpenGL支持,在Win95/98和WinNT4.0下都有完整的OpenGL ICD驱动程序。同时,Riva 128ZX还解决了Riva 128的一些BUG,显存也增至8MB,效能改善比较明显。
SpeedDrift
 楼主| 发表于 2008-8-29 18:57:26 | 显示全部楼层
NV4=TNT震撼发布,雷管引爆性能

    1998年10月,NVIDIA发布了TNT,TNT是TwiN Texel的缩写。核心架构为2条32bit象素流水线的渲染体系,每条象素流水线有1个TMU,在每个时钟周期内并行处理两个纹理。这样工作在90MHz的RivaTNT最大填充率能达到180M Texels/sec。同时Riva TNT还首次拥有24bit Z缓冲(Z-Buffer)以及8位的stencil buffer。

   

    TNT的设计目标是要达到Voodoo2两倍的性能,不过由于0.25微米制程在当时没有完善,NVIDIA只好采用了0.35微米制程,使得RivaTNT只能工作在90MHz下。不过即便如此,RivaTNT还是击败了Voodoo2,成为当时速度最快的3D加速卡。超过Voodoo2两倍性能的任务也就交给了后面的TNT2来完成。

    而且NVIDIA也注意到优良的驱动程序对充分发挥显示芯片性能的重要性,并为RIVA TNT编写了全新的驱动,并命名为“雷管”(Detonator)。

    凭借出色的3D性能,德国的ELSA 、美国的Canopus等四家显卡生产商宣布加入NVIDIA阵营,著名的Creative公司也在第一时间推出了基于TNT显示芯片的产品。9月,NVIDIA被《个人电脑杂志》评为最有影响力的显示芯片生产商,而TNT被Mercury研究公司评为速度最快的显示芯片。同时,NVIDIA还被OpenGL架构委员会吸纳为新成员,成为第一个加入OPGL ARB的专业显示芯片设计公司。

NV5=TNT2,性能翻倍,奠定NVIDIA王朝

    1999年4月,核心代号为NV5的RivaTNT2发布了,由于采用了0.25 微米制程,TNT2标准版的频率提高到125MHz,频率的提升以及核心内部的优化,RivaTNT2的性能有了一个较大的飞跃,性能在当时无人可及。后期RivaTNT2还采用了0.22微米制程,频率进一步提升。

   

名称
RIVA TNT
RIVA TNT2
架构
NV4
NV5
制造工艺
0.35 Micron
0.25 Micron
晶体管数目
7 Million
15 Million
DirectX支持
6
6
顶点管线
1
1
VS版本
-
-
像素管线
2 x 1
2 x 1
PS版本
-
-
核心频率
90 MHz
125 MHz
填充率
180 MTexels/s
250 MTexels/s
显存位宽
128-bits
128/64-bits
显存类型
SDR
SDR
显存速度
110 MHz
150 MHz
显存带宽
1.76 GB/s
2.40/1.00 GB/s
    从TNT2开始NVIDIA对产品进行了市场化细分,在高中低端,面向多种不同的用户,TNT2芯片衍生出TNT2 Vanta、TNT2 M64、TNT2、TNT2 Pro、TNT2 Ultra等不同的型号产品,搭配不同显存的容量,产品线覆盖了大部分的市场。
Inno3D TNT2 Ultra
    TNT2 Ultra是系列最高端产品,也是NVIDIA第一次使用Ultra后缀命名高端产品,TNT2 Ultra只是从NV6核心中挑选出的品质优秀的芯片,并搭配了速度最快的显存,其核心/显存频率高达150/183MHz,后期更是提高到175/200MHz,性能上超过了3DFX的VOODOO3 3500以及MATROX的G400 Max,而且支持的特效也很全面(比G400少一个EBM环境凹凸贴图),成为当时性能之王。当然TNT2 Ultra的售价也很高,当时丽台、华硕、创新等一线品牌TNT2 Ultra的国内上市售价高达2300元(1999年5月)。
    TNT2标准版是高端系列的普及型产品,也是TNT2 Ultra的降频版,核心/显存频率为125/150MHz,但是由于TNT2采用0.25微米工艺,核心普遍可以工作在150MHz左右,所以也造就了良好的超频能力,于是众多游戏发烧友更倾向于购买TNT2标准版版超频至TNT2 Ultra来使用,记得当时甚至还有不少玩家超到了165/200MHz的水平,性能也是也达到了一个新的高度。价格上TNT2标准版也更有优势,32MB显存的TNT2国内上市售价为1500-1750元左右,16MB的TNT2 Pro则在1350-1500左右。
SpeedDrift
 楼主| 发表于 2008-8-29 18:58:37 | 显示全部楼层
NV6=NV5工艺改进版,TNT2 Pro/M64/Vanta诞生
    后期随着制程的进步,NV6也使用了0.22微米工艺,并被命名为TNT2 PRO,也被用于部分TNT2 Ultra。由于使用0.22微米制程后,TNT2 PRO的成本、功耗有、发热有明显下降,超频能力更强,性价比进一步提高。除了高中端的TNT2标准版外,NVIDIA同时也利用0.22微米工艺的NV6芯片,推出了针对中低端用户的TNT2 Vanta和TNT2 M64。
Inno3D TNT2 M64
    TNT2 M64是NVIDIA在中端的力作,针对125美元以下的主流市场,对手为S3 Savage 4 Pro。为了降低成本,其显存接口从128bit降到了64bit,显存带宽为1GB/s,其他方面和相差不大,最大也可以支持32MB显存容量,AGP4X规范。性能上M64介于TNT2 VANTA和TNT2 Pro之间,只是在高分辨率及32BIT色深下的性能下降不少。其在国内的上市价格也在1000元以下, TNT2 M64也成为中端市场曝光率最高的显卡,凭借出色雷管驱动程序,M64也战胜了Savage 4 Pro。整个TNT2家族在1999年几乎抢占了80%的独立3D显卡市场。使得NVIDIA不仅在技术上,在市场上也领先于3dfx。
TNT Vanta规格和M64相同,频率降至100/125MHz,主要面向OEM市场
   TNT Vanta是系列的入门级产品,针对OEM市场,相比TNT2 M64核心/显存频率降到了100/125 MHz,有8/16MB两个版本。价格也更低廉,价格在600元以内。由于性能不俗且价格优势明显,后期采用了0.22微米工艺NV6芯片的产品竞争力更强。NVIDIA第一次进军OEM市场便取得了非常好的成绩,也使在这一领域经营多年的ATI感受到了相当的压力,凭借RAGE系列出色的DVD解压能力,总算保住了一定的市场份额。

    1999年8月,伴随着微软DirectX7.0的发布,引入基于图形核心的多边形转换与光源处理(Transform and Lighting),而且10月上市QUAKE3引擎也采用了这种技术。

硬件T&L,首款GPU诞生,GeForce的时代来临


传统3D图形管线

    在Direct7时代,多边形转换和光照处理是由CPU负责的,大量复杂的数学运算对CPU造成了极大的负担,而GeForce 256可以支持硬件Transform and Lighting,也成为了第一个GPU图形核心。


    GeForce 256是被作为一个图形处理单元(GPU)来设计的,GPU是一个单芯片处理器。它有完整的转换、光照、三角形设置和渲染引擎(分别为:Transform、Lighting、Setup、Rendering)等四种3D处理引擎,一些以前必须由CPU来完成的图形运算工作现在可以由GeForce256 GPU芯片独立完成,大多数情况下具有完整的传输和光照相引擎的GPU运算速度比CPU快2-4倍,同时也有效地减轻了CPU的浮点运算负担,减少了对CPU的依赖性。

    NV10图形核心,为0.22微米工艺制造,集成了2300万个晶体管,在当时已经超过了PentiumIII的数量,本应采用0.18微米的制造工艺,不过为了尽早抢占市场,仍然采用了0.22微米,如此大量的晶体管数量芯片的发热和功耗也是不小的问题,NVID1A公司只好将其核心频率定为120MHz,不过凭借创纪录的有4条象素管线,峰值像素填充率达到480M/s,远高于TNT2 Ultra。

    Geforce 256具有了现代GPU的大部分的初步特征,核心采用了256位渲染引擎,具有4条象素管线,每管线一个纹理映射单元,它也是第一个使用DDR显存的PC显卡。Geforce 256核心频率为120MHz,三角形生成率为1500万个/秒,峰值像素填充率达到480 M/s,并使用了四纹理(Quad Texel)引擎,相同频率下,Geforce 256的纹理处理性能是TNT2的两倍。特效方面,支持立方体环境映(Cube environment mapping)以及顶点混合、纹理压缩和凹凸映射贴图等。视频方面,为了加强为MPEG-2视频回放性能,NV10中加入了硬件动态补偿功能。


GeForce 256 DDR

    GeForce 256 DDR的显存频率为300MHz,带宽由SDRAM的2.66 GHz提升至4.8 GHz,也达到了当时PC图形卡的巅峰,使得GeForce 256像素填充能力进一步爆发,在高分辨率下、32BIT渲染环境中表现趋于完美。由于当时DDR显存售价也是十分的昂贵,所以GeForce 256 DDR的售价也是高达到2500元以上。


GeForce 256 SDR

    GeForce 256 SDR版的售价上有不小的优势,在国内的售价至少比GeForce 256 DDR要便宜500元。其显存频率为200MHz,带宽2.4GB/S,这样对NV10核心的性能有了不小的限制,高分辨率、32为色深下的性能下降很大,几乎和TNT2 Ultra相近,但由于成本下降不少因此销量也不错。
SpeedDrift
 楼主| 发表于 2008-8-29 19:00:27 | 显示全部楼层
GeForce 2代,您知道GTS的含义吗?

    2000年5月,研发代号为NV15的新一代图形核心问世,由于其纹理填充率达到了创纪录1.6Giga texels/sec,也是第一个纹理填充率过亿的GPU,所以NVIDIA将其命名为GeForce2 GTS以纪念其特殊的历史含义。


    GeForce2 GTS 采用了更先进的0.18微米制程,核心频率200MHz,也具有4条象素管线,和GeForce256不同的是,每管线采用了两个纹理映射单元,这一经典的4x2架构一直延续GeForce4才结束。

    NV15采用了第二代的T&L引擎(2nd Generation Transform and lighting) ,支持立方体环境映(Cube environment mapping) 、顶点混合(Vertex blending)、 材质保护(Protective textures) 、材质压缩(Texture compression)、逐象素着色控制(Per-Pixel Shading Control), 核心还具有多结构图形Single Pass处理、 硬体反锯齿(Anti-Aliasing)效果处理 、各异向性过滤(Anisotropic)处理。

    GeForce2上也首开了PC图形核心通用计算的先河,凭借其强大的多纹理处理性能,结合纹理环境参数和纹理函数可以实现一些很灵活的应用。它具有Texture Shader以及Register Combiner单元,有一定的数值计算能力。开发人员可以利用Texture Shader的依赖纹理进行数据访问,用Register Combiner进行计算。GeForce2被用于求解数学上的扩散方程,成为GPU通用计算的最早应用。


规格一览

    值得注意的是,在GeForce2 GTS 上,NVIDIA Shading Rasterizer(NSR)技术被正式引入。NSR让处理器每次可对单一像素进行七项运算,包括:基本贴图、单像素曲面映射(bump mapping)、单像素diffuse lighting、单像素specular lighting、颜色烟雾效果、ambient light、以及Alpha transperency。过去,GPU对Vertex(即三角形的三点)上的像素进行运算,再以平均值来决定整个三角形的光影和bump mapping(凹凸映射)等效果。而NV15可以对三角形上的每个像素(Per-Pixel Shading )进行运算,因此光影效果更加细致和准确。


Geforce2架构图

    另外,相比GeForce 256,GeForce 2 GTS另一个进步是采用单周期双纹理处理技术,不仅拥有4条像素渲染管线,而且每管线每周期可以处理两个纹理贴图,当时游戏画面的提高基本上都是通过大量的多边形、更复杂的贴图来实现的,QUAKE3引擎以DirectX 7来说都是如此,所以强大的纹理贴图对提高游戏速度很有帮助。三角形生成率为2500万个/秒。

    GeForce2 GTS 的另一个革新在于其首次采用了0.18微米工艺制程,由TSMC制造的GeForce2 GTS(0.18微米,564 PBGA 封装)中,晶体管数目已经增加到了2500万,采用0.22微米GeForce256的晶体管数目为2200万到2300万。GeForce2 GTS的耗电量是GeForce256 18瓦特的一半,10瓦特左右,功耗大幅度下降。因此,GeForce2 GTS 也成为了核心频率首次超过200MHz的GPU。


GeForce 2 GTS 显卡

    由于完整支持DirectX 7.0与OpenGL 1.2 ICD,所以不仅在3D游戏的表现超越了所有的同级显卡,在工作站级3D应用设计上也有不俗的表现。GeForce2 GTS在多媒体性能也有一定的提高,可以连接更多的周边设备。 DVD压缩方面使用新一代Enhance Motion Compensation硬件解压缩,使得 DVD的品质与速度都非常不错。


视频功能强大

    2000年10月,在ATI正式发布Radeon256后,NVIDIA推出了GeForce 2 Ultra,依然牢牢控制着显示性能的制高点。



GeForce 2 Ultra

    GeForce 2 Ultra相比GeForce 2 GTS有着更高的显存及核心频率。其核心频率为250 MHz,所以GeForce 2 Ultra的峰值像素填充率达到了1GB/s,而其纹理填充率高到2GB/s,后来的GeForce3 TI 500甚至也没能超过这个高度,也遥遥领先于其竞争对手Radeon256。
SpeedDrift
 楼主| 发表于 2008-8-29 19:01:42 | 显示全部楼层
细分产品线,高端GeForce 2 Ti出世:

    2001年秋,NVIDIA又推出了GeForce2 Titanium以及低频率版本的GeForce2 Ti VX,也成为了GeForce Titanium系列的开端。GeForce2 Ti其实就是改进了部分线路设计的GeForce2 Pro显示卡,规格与后者完全一样,GeForce2 Ti采用了全新的简化PCB,并减少周边PWM元件的使用。不过,GeForce2 Ti 的核心频率依然保持在250MHz,显卡的性能并不会受到影响,但其成本价格却会降低20美元左右。   


Inno3D GeForce 2 TI

细分产品线,低端一代经典GeForce 2 MX出世:

    除了在高端领域独领风骚,在低端领域,NVIDIA也是大展拳脚,推出了支持硬件T&L的GeForce 2 MX,它是NV15芯片的简化版,面向中低端市场。Geforce2 MX具有两条像素管线和TNT2一样。虽然管道数减少,但是Geforce2 MX采用了源于NV15的部分特性,支持第二代硬件T&L。由于频率提高,材质填充速度也比Geforce 256的快。这让Geforce2 MX在中低分辨率下的性能并不逊于Geforce 256 SDR。Geforce2 MX可以支持64bit SDR/DDR SDRAM或者128bit SDR SDRAM,但去掉了对128bit DDR SDRAM的支持,对于只有2条像素管线的Geforce2 MX也确是没有必要。


Geforce2 MX

    Geforce2 MX推出后,迅速成为了市场的宠儿,在对于性价比更为关注的国内尤其是如此,很多国内用户都是从Geforce2 MX开始领略了3D游戏的魅力。它在全球范围内显卡市场上的出货量也是屡创新高,一直持续到GeForce4 MX440。NVIDIA继续采取了细分市场的策略,把Geforce2 MX分化成频率、显存规格的不同而分为MX400、MX200、MX100等几种产品,专业应用方面也推出了Quadro2 MXR,Geforce2 MX系列,可以满足不同层次、多种领域的不同用户的需求。

    GeForce2 MX 还不只是一个的精简版,芯片还增加了两个重要的特点。一是TwinView 技术,这一技术有点类似于Matrox 的双头技术,可以让一块显卡同时驱动两个独立的显示器。第二,就是它做了一些修改,可以支持 Macintosh平台。因此也被选中作为Apple Power Macintosh G4 的缺省高挡图形方案。

    2000年9月,NVIDIA推出了以Geforce2 MX 为基础 的GeForce2 Go 登场。正式进军移动图形领域。


GeForce 2 MX 32M


GeForce 2 MX 200

    GeForce 2 MX 400是GeForce 2 MX系列的最高端产品,GeForce 2 MX 400核心与GeForce 2 MX完全一样,只是频率由175/166 MHz提升至200/166 MHz。由于有了完整128bit的显存支持,其性能表现相当不俗,全面领先于GeForce 2 MX 。


GeForce 2 MX 400

    这是采用Low Profile设计Inno3D GeForce 2 MX 400 64m 64 bit显卡,专为小机箱及准系统设计。


GeForce 2 MX 400 64M

    2000年底,NVIDIA以一亿一千二百万美元的价格正式收购了竞争对手3DFX,成为当时轰动一时的新闻,也标志NVIDIA成为了PC独立显示核心领域的霸主。不过2000年还有一桩收购虽然默默无闻,但是对后来的影响更大并持续到今天,那就是ATI收购ARTX。


DX8时代,考验像素和顶点能力

    2001年以后,由于NVIDIA已经完成了对3DFX的收购,显卡市场演变为NVIDIA与ATI两雄争霸的局势。


    而在此时,微软正式推出了划时代的DIRECTX8 ,将可编程的着色管线概念正式引入到GPU,新的shaders(光影处理器)数据处理方式也是DirectX 8中最具意义的创新。Shader采用了新的数据处理程序模型,这与旧有的预定义模型是不同的。这种模型中,数据是透过virtual machine以一个类似于带有特殊汇编指令集的pre-arranged(事先安排好)程序进行处理的,程序员可以直接对其进行编程。


    凭借可编程几何管线和可编程像素管线,使用者可以自由的控制几何和像素的代码设计。这对于图形开发者是空前的,他们可以通过基本的着色器,利用开发工具,产生全新的,极具创造力的效果。也正是可编程管线的引入,为GPU发展翻开了新的篇章,GPU开始向SIMD处理器方向发展,凭借强大的并行处理性能,使得GPU开始用有了部分流式处理器特征。

首款DX8显卡,GeForce 3发布

    2001年初,NVIDIA正式发布Geforce 3 ,代号NV20。从Geforce 3开始,可编程的nFiniteFX SHADER引擎正式被引入,完整实现了对Pixel shaders和Vertex shaders 处理单元的硬件支持,Geforce 3也是2001年上半年唯一完全可以支持DirectX8.0的GPU。


    Geforce 3默认核心频率为200MHz,拥有4条管线,每管线2个TMU(纹理贴图单元),这和Geforce 2是一样的,所不同的是Geforce 3还拥有一个Vertex shaders 单元,以及4个Pixel shaders单元,这也是和Geforce 2质的区别。


  Geforce 3

    NVIDIA在Geforce3还在采用了第一代的“光速显存架构”(Light Speed Memory Architecture)采用了一系列新技术来充分利用显存提供的带宽。光速显存架构采用的第一个技术是“显存交错控制”技术,由芯片内核集成的专门的显存控制单元来完成。光速显存架构另一个技术是“无损Z压缩算法”,在不降低画质的前提下大大降低了Z-缓存数据对显存带宽的占用。除此之外,Geforce3中还加入了一个被称之为Z轴吸收选择(Z-Occlusion Culling)的技术来达到隐面消除技术(HSR)的效果以尽量减少不必要的资源消耗。

    不过Geforce 3上市后在当时大部分DX7以及QUAKE3游戏的主流分辨率中,GeForce 3并没有能完全超过GeForce 2 ULTRA,确实出乎所有人意料。但由于首次使用交错内存结构,超高的内存效率使得GeForce 3在高分辨率下还是有很强的优势。此后随时间的推着移,大量DIRECTX8的游戏上市,人们才意识到在画面Geforce 3特效方面带来的革新与震撼。


对抗8500,GeForce 3细分为Ti 500/200

    GeForce 3上市后,伴随着新一代DirectX8的游戏引起了不小的轰动,市场反响也很不错,,但是300多美元的售价阻碍了GeForce 3的普及。2001年秋,NVIDIA又对市场进行了细分,由GeForce 3派生出面向中端的GeForce 3 Ti 200和具有最顶级性能、直接对抗Radeon 8500的GeForce 3 Ti 500。



GeForce3 Ti200

   GeForce3 Ti200相对于标准版的GeForce 3,核心/显存频率从200/230 MHz降至175/200 MHz,这样在性能上与GeForce 3标准版拉开了一定的距离,而且较低的运行频率提高了使得对良品率的要求不再苛刻,同时供电电路的精简也使板卡厂商降低生产成本。过低的默认频率也给了GeForce3 Ti200相当大的超频潜力,从而成为当时2000元左右最具性价比的高端产品。由于硬件上可以完整支持DirectX8,在这个价位上优势明显,所以迫使对手ATI把仅支持DirectX7的Radeon 7500从上市初的1999元降到了1500以内。根据当年测试表明,Inno3D GeForce3 Ti200显卡凭借出色的品质很容易通过超频达到GeForce 3标准版的200/230 MHz频率下,受到游戏玩家的追捧。


GeForce3 TI500

    GeForce3 TI500拥有系列中最高的频率,达到240/250 MHz。GeForce3 Ti500使用8层PCB以及更奢华的作工用料来确保高频率下的稳定运行,价格因此也居高不下,当时售价为3000人民币左右。 面对晶体管数量更多、频率高于自己Radeon 8500,GeForce3 TI500得益于优秀的驱动支持,在于Radeon 8500对抗中丝毫不落下风,但功耗方面却更具优势,成为当时高端游戏显卡的首选。



    由于竞争对手ATI在2001年秋发布了的Radeon 8500,也是在高端市场上第一次略微领先了NVIDIA。虽然凭借出色的驱动支持,TI500在游戏中仍然有一定的优势,但是即使这样,Radeon 8500和TI500的势均力敌的态势,还是给了NVIDIA一定的压力。
SpeedDrift
 楼主| 发表于 2008-8-29 19:02:41 | 显示全部楼层
为了王位!GeForce 4 Ti发布


NV25

    于是,2002年2月,NVIDIA发布了研发代号为NV25的GeForce4 Ti系列显卡,也是DirectX 8时代下最强劲的GPU图形处理器。。GeForce4 Ti芯片内部包含的晶体管数量高达6千3百万,为改良的TSMC 0.15微米工艺生产,采用了新的PBGA封装,运行频率达到了300MHz。核心集成的6300万个晶体管相当于Athlon CPU的2倍,发热也不小,所以GeForce4 Ti系列显卡上都配备了散热风扇。


NV25核心内部

    NV25拥有4条素管线,每管线2个TMU(纹理贴图单元),这和前两代产品是一样的,所不同的是Geforce 4还拥有2个Vertex shaders单元,以及4个Pixel shader单元。

    GeForce4 Ti采用了第二代nfiniteFX 引擎,它是从GeForce3时代开创的nFiniteFX引擎改进而来的,顶点SHADER单元增加到2个,像素着色单元的效率显著的提升。GeForce4 Ti也同时引入了第二代LightSpeed Memory Architecture II(LMA II)光速显存构架技术,在全屏反锯齿方面,GeForce4 Ti采用了新的Accuview AA技术。从总体上看,GeForce4 Ti也是从GeForce3的加强优化版本,核心增加了一个顶点单元,同时频率也比GeForce3有了很大的提升。

    NVIDIA采用和以往相同的方法,通过运行频率的高低将高端的GeForce 4 Ti系列细分为4600、4400、4200三个系列,其中的GeForce 4 Ti 4200性价比最高,性价比最高,深深受消费者喜爱。其原本用于OEM市场,也是寿命最长的一款GeForce 4 Ti产品。

    后来随着AGP8X规范的普及,NVIDIA推出了NV25的AGP8X版本—NV28,核心频率和显存频率略有提升。NV28也有三个型号的产品:GeForce4 Ti4200-8X和GF4 TI4800SE和GF4 TI4800。GeForce4 Ti4200-8X和GF4 TI4800SE和GF4 TI4800可以看成是GeForce4 Ti4200、GeForce4 Ti4400、GeForce4 Ti4600的AGP8X版本。


GeForce 4 Ti 4200   

    在2002年2月5日NV25和NV17发布后,分别对应高中低端市场的GeForce4 Ti4600、GeForce4 Ti4400与GeForce4 MX460、GeForce4 MX440、GeForce4 MX420都相继上市,只有GeForce4 Ti4200则一直没有露面。主要原因是价格定位在179美元左右的Ti4200和GeForce4 MX460、GeForce3 Ti200完全重叠,而且nVIDIA也正需要一段时间来消化自己的GeForce3 Ti200库存,GeForce4 Ti4200的推迟推出也就不足为怪了。也成为了有史以来性价比最高的显卡。
   

    GeForce4 Ti4200又分为64MB和128MB两个版本。64M版本GeForce4 Ti4200会搭配64MB的3.5ns DDR SDRAM显存(频率500MHz),128MB版本则搭配128MB钓4ns的DDR SDRAM显存(频率444MHz)。从官方价格上看,后者会比前者贵20美元,显然对于游戏玩家来说。64M 3.5ns DDR SDRAM的版本是最佳的选择。

    GeForce4 Ti4200作为nv历史上最经典的产品之一,它的寿命也是非常长的。横跨了200-2004年,在2004年中后期,由于低端的 GeForceFX 5200及 GeForce4 MX440性能不济,而GeForceFX 5700短时间还无法降价,使对手的Radeon 9550在低端市场给NVIDIA造成了的冲击相当的大,为了挽回局面,Ti4200又被临危授命,重新披挂上阵,并以500元左右的超值价格发售。由于Ti4200的DX8性能仍旧高出当时市场上的大多数低端显卡,也深受广大主流用户的喜爱。

    而且,当时国内无论是NVIDIA一线AIC厂商还是众多通路品牌,都非常配合的推出了GeForce4 Ti4200产品,一方面反映了Ti4200产品本身的高性价比,另外也可看出NVIDIA与众多AIC厂商的患难与共、默契配合。


GeForce 4 Ti 4400   



    Inno3D GeForce 4 Ti 4400显卡,该显卡使用了和GeForce Ti 4600相同的PCB,只是用料上略有简化。也是唯一一款Inno3D品牌的红色PCB的显卡产品。

    GeForce 4 Ti 4400的运行频率275 / 275 MHz,和GeForce 4 Ti 4600一样使用8层PCB及3.6 ns显存颗粒。由于频率和GeForce 4 Ti 4600相差不大,性能也接近GeForce 4 Ti 4600,但价格却下降不少,所以性价比也更高。


GeForce 4 Ti 4800SE

    GeForce 4 Ti 4800se显卡采用NV28图形核心,支持AGP 8X,后期的产品工艺更加成熟,核心的发热及功耗有所下降。所以GeForce 4 Ti 4800se频率275 / 275 MHz,GeForce 4 Ti 4400相同,但没有使用加长的PCB,供电电路也有所精简。


GeForce 4 Ti 4600 128MB

   GeForce Ti 4600是系列的最强的产品,GeForce 4 Ti 4600显卡使用了加长型PCB,供电电路较另两款产品更加充足,并使用了3NS的mbga封装的GDDR显存。GeForce 4 Ti 4600工作频率为惊人的300 / 300 MHz,对于一款拥有6400万晶体管的核心来说,在当时实在是难能可贵。不过GeForce Ti 4600 当时300美元以上的售价也是非常昂贵,所以只能成本展示技术实力的“SHOWCASE”产品。

不能磨灭的经典,GeForce 4 MX系列


NV17核心内部

    除了高端的GeForce 4 Ti 系列,在中低端,  nVIDIA推出了核心代号为NV18的GeForce 4 MX440,GeForce 4 MX 定位于GeForce 2 MX 的升级产品。NV18具有两条像素管线,并且每条像素管线拥有两个纹理单元,是唯一一款2x2架构的核心,像素处理单元也被简化掉了,晶体管数量也由5700万缩减为了2900万,对手是Radeon7500和Radeon7200。不过由于其部分特性源自GeForce 4,拥有较高的核心效率,高于在很多DX7尤其是OPENGL应用中可以领先GeForce 2 GTS以及低频率的TI200。

    GeForce 4 MX也支持nView技术,以前的GeForce2 MX也能实现双显示输出,但都是依靠额外的附加芯片来完成的,在GeForce4 MX中已经将DVI/CRT双头显示以及TV OUT视频输出等功能都集成进了显示芯片内部,所以很容易实现nView功能。

 GeForce4 MX具备硬件的MPEG-2 视频解码能力,它除了动态补偿功能,还具备了IDCT运算支持,可以大幅降低进行MPEG-2 视频解码时的CPU 占用率。

   

    由于在2002年中,主流游戏还没有完全过渡到DX8,而且QUAKE3引擎仍然为很多的游戏所采用,在游戏市场中仍然不小的比例。GeForce 4 MX 440还有很大的生存空间。在中低端由于竞争对手的产品没有得力的产品,MX 440迅速占领了市场,成为低端市场上名副其实的霸主。

    和GeForce 2MX系列 一样,GeForce 4 MX 也分为了 GeForce 4 MX 460 / 440 / 420三款产品但是由于GeForce 4 MX 420采用64BIT显存,性能也是最低。为了提高产品的性加比,nVIDIA还推出了GeForce 4 MX 440SE,显存搭配更灵活,超频空间更大。以上显卡均基于NV17图形核心,除了在芯片频率和理论填充速率这几个指标上略有差异以外,它们最重要的差别在于GeForce4 MX460/MX440支持DDR显存,而GeForce4 MX420只能支持SDRAM显存。

    GeForce4 MX460核心/显存频率为300MHz/550MHz,性能在该系列中最强大,但价格偏贵甚至和GeForce4 4200相当;而GeForce4 MX440核心频率为270MH/400MHz。最低端GeForce4 MX420,核心频率只有250MHz,而且搭配了166MHz的SDRAM显存。


GeForce 4 MX 440 8x 64m



GeForce 4 MX 440SE

    GF4 MX440SE的定位是取代GF2 MX400,基本保持MX 440的性能同时降低产品的成为,MX440SE与MX440的区别只在于后者对64bit ddr、128bit SDRAM显存提供了支持.
GeForce4 MX440 SE芯片的额定工作频率为250MHz,相对于MX440低了20MHz;官方推荐搭配128bit 6ns DDR显存,工作频率只有333MHz,而GeForce4 MX440是400MHz DDR,略微低了一些


GeForce 4 MX 440 64bit  32M

    MX440系列以良好的性价比,成为低端显卡市场中主流产品。为了更多的延续低端热门显卡MX440系列的生命,NVIDIA后来还推出了GeForce MX4000图形显卡,其实是以前GeForce4 MX440-8X的NV18B版。NV18B芯片支持128MB或64MB容量的128-bit / 64-bit DDR显存,可以使用FX5200的PCB板来生产MX4000产品,其核心/显存频率为275/400 MHz,支持D-Sub、DVI-I和TV-Out端口。核心整合TMDS和S-Video控制器,采用128位显存位宽的产品性能与GeForce4 MX440-8X相当。

    总的来说GeForce 4系列产品获得空前的成功,由于对手ATI在8500、7500犯下了严重的错误--片面的追求显卡的性能而丧失了自己一贯成本的优势,另外,ATI Radeon8500 在设计上也有不少问题,不仅核心着色体系的效率低下,而且ATI一直以来的驱动问题也反映的很明显,使得Radeon8500在竞争中一直处于劣势。而Radeon7500则由于采用了2x3架构,较多的TMU单元带了的性能提升很小,却导致了成本的上升。不仅在零售市场,ATI传统优势的OEM市场也逐渐被GeForce 所蚕食。甚至在移动领域,GeForce 4 mx440 go的出现,使得NVIDIA在在产品的性能和功耗上找到了一个较好的平衡点,也占据了一定的份额。在这一时期,ATI在竞争中完败于NVIDIA,不过这也客观上加速了ARTX从幕后走向台前。
SpeedDrift
 楼主| 发表于 2008-8-29 19:04:41 | 显示全部楼层
最具争议的作品——GeForce FX系列

    公元2002年11月18日,Comdex 2002上,NVIDIA发布了研发代号NV30的GeForce FX,这也成了历史上Nvidia最具争议的一款产品。在回顾GeForce FX系列产品前,我们不妨先对NV30的问世背景做个简单介绍。


GeForce FX看上去很美好

    众所周知,从DirectX 6时代确立优势地位以来,经过DirectX 7、8两代的发展,伴随着与微软的良好合作,NVIDIA成为了桌面PC独立显示核心的霸主,市场占有率成倍提升。在收购了3DFX以后,NVIDIA又通过GeForce 3、4两代产品在市场占有率方面击败了另一个对手ATI,而且,通过雄厚的技术实力,其每半年更新一代的做法也令对手疲于奔命。随着GeForce 4的成功,NVIDIA也处于历史上的最巅峰时期,产品不仅局限于PC显示核心,更延伸到主版芯片组,电视游戏机领域。

    不过NVIDIA的一家独大也引起了一些业内人士的不满,他们指责NVIDIA是图形业内的INTEL。当然这也使与NVIDIA一贯合作良好的微软有所注意,尤其是NVIDIA在DirectX 8标准制定过程中的某些做法以及开发自主的CG语言等,使得微软不等不重新审视这个昔日的合作伙伴,两家公司的开始逐渐变得貌合神离。

    后来,在NVIDIA为微软提供XBOX硬件解决方案的过程中,随着制造工艺的进步,硬件产品的制造成本是逐渐下降的,但是NVIDIA与微软的合同中并未考虑这一点,等到微软意识到这一点后,希望修改合同中的部分内容,但却遭到了NVIDIA的拒绝……


DX9第一代产品让NVIDIA一败涂地

    作为回应,DirectX 9规范的制定过程中,竟然没有考虑任何NVIDIA的意见。在参考了ATI的部分提议后,微软将24BIT渲染精度、着重于Shader并行处理性能等作为DirectX 9的主要特点。除此之外,在年底发布的3DMARK03中,微软的影响也是显而易见,NVIDIA这时再也按耐不住,对3DMARK的开发公司Futuremark进行了公开的指责。

NVIDIA忙碌于芯片组的研发

    再来看NVIDIA自身方面,2001年秋到2002年底也是其历史上最忙碌的一段时间。除了半年一次的GPU升级之外,NVIDIA还要根据合同为微软开发XBOX用SoundStorm音频处理芯片以及XBOX的主板。而且在主版芯片组领域,NVIDIA的压力更大,在经历了NForce遭受冷遇的开局后,无疑对雄心勃勃的NVIDIA打击不小。所以在NForce2上,NVIDIA倾尽全力,誓要在AMD平台与VIA一较高下。摊子铺的过开,也使NVIDIA开发资源变得分散。

    综上所述,在这种大背景下,经过数次延期修改,并打破了NVIDIA过去半年发布一款核心的规律之后,NV30问世了。由于采用了3DFX的反锯齿技术,NVIDIA将其正式命名为GeForce FX 5800 Ultra,并于2003年初上市。

  

    NV30像素管线部分采用了成熟的4X2架构,为当时领先的0.13微米制程制造,核心集成的晶体管数达到创纪录的1.25亿个,由于较高的默认频率,所以其功耗、与发热非常之大,为此NVIDIA使用了称为名为“FX Flow”的散热系统,包含一个铜制散热片、热管和换气装置。


“FX Flow”散热系统

    GeForce FX 5800 Ultra使用Flip-Chip封装设计,频率提高到了惊人的500MHz。BGA和Flip-Chip封装方式的芯片,可以直接和插槽接触,缩短布线距离,同时也提高了信噪比,可以适应更高频率,并降低功耗。


Flip-Chip BGA
    核心渲染架构方面,NV30首次引入了CineFX着色引擎。其中的Cine是Cinematic(电影般的)的缩写,而FX则表示其部分技术源自3DFX。CineFX的意思就是指新一代核心可以渲染出电影般的视觉效。


CineFX引擎  

    在CineFX着色引擎中,具有32个128位浮点处理器。并在PC图形核心历史上首次提供了128bit色彩精度的支持,并且可以在同一个着色程序中的不同色彩精度中切换。

SHADER规格对比

     NV30的顶点着色单元较前代也有了质的飞跃,可以支持到Vertex Shader 2.0+,所能处理的最大指令数为65536,这一点远远高于DX9.0的规范。而且,初级的动态循环和分支指令的引入提高了着色单元的可编程性。像素着色单元支持Pixel Shader 2.0+,同样也超出了DX9.0规范,最大指令数提高到1024,对于每一个像素最大可进行16个纹理贴图操作,而且像素单元可以支持更多的高级指令,并且可以进行指令预判。总的来说,CineFX引擎支持更多的指令,因此可以带给开发者更大的发挥空间。


    同时CineFX引擎也可以很好的支持NVIDIA的Cg(C for Graphics)编程语言,使得开发人员可以利用Cg语言而无需针对底层硬件进行编程,从而降低了图形编程的难度,可以更方便、快捷的开发出游戏所需要的渲染效果。


高度灵活的CG语言

    在反锯齿方面,4X FSAA是NV30设计的中心,也是NV30硬件效率最高的操作。为了使4X FSAA运行更快,NV30在反锯齿设计上进行了重新制定,每个数据通道的宽度都为4X FSAA做了优化。同时,NV30还首次采用了Intellisample(智能采样)、(Adaptive Texture Filtering)自适应纹理过滤等技术一提供更好画面质量。

让人想入非非的渲染效果

    在内存控制方面,NV30采用了4X32bit共128bit的位宽。由于采用了全新的DDR-II显存,所以NV30在GeForce 4的LMA II的基础上(Lightspeed Memory Architecture,光速内存结构)针对DDR-II做了相应的优化设计。这款内存控制器实际上是全新设计,对4X FASS进行了全速优化。ROP(光栅化处理器)、帧缓存等都是根据它来设计的。而且它运行在2X的核心频率上,可以充分利用DDR-II的特性。


DDR-II SDRAM

    GeForce FX 5800 Ultra的DDR-II SDRAM显存运行频率为1GHz,不过由于是128BIT位宽,和对手的Radeon 9700相比,其峰值带宽落后25%。但由于新型LMA内存控制器提高了Z-culling和压缩方面的性能,顶点、纹理和Z轴数据都进行了压缩以节省带宽,在程序配合较好的情况下,NV30可以更有效的使用带宽。再加上Z-occlusion和纹理压缩等技术,GeForce FX 5800 Ultra的实际最大带宽可以达到20GB/s。

    虽然在2002年11月18日NV30就已经发布,但是由于0.13微米制程等因素的延误,直到2003年2月,GeForce FX 5800 Ultra才正式上市,而且由于当时0.13微米工艺并不完善以及较高的核心频率,导致NV30芯片发热量极大,必须采用“FX Flow"散热系统。为了保证核心以及DDRII显存在高达500MHz的频率下稳定工作,nVidia不等不史无前例的采用12层PCB设计,同时供电电路的做工用料也是非常豪华,再加上DDRII显存在当时的价格也是十分昂贵,这些因素使得GeForce FX 5800 Ultra的成本异常之高且功耗也十分巨大。所以其上市售价也接近500美元,十分惊人。由于上市时间的延误以及核心自身的不成熟,GeForce FX 5800系列的辉煌也只持续了不到3个月,就被下一代的GeForce FX 5900所替代。

备受指责的5800衍生物——FX5600和FX5200

    由于GeForce FX 5800 Ultra高昂的价格,显然很难为普通的消费者所接受,旗舰级产品更多的是为了技术实力,只能面向规模较小的高端市场。为了加快GeForce FX系列的普及,2003年3月的GDC大会上,NVIDIA发布了面向主流市场的NV31和NV34,即GeForce FX5600和GeForce FX5200系列,这标志着NVIDIA开始全面更新其产品线,使得更多的普通用户也可以体验到GeForce FX系列的新技术。

    按照以往惯例,GeForce FX 5600系列按工作频率不同分为GeForce FX 5600 Ultra和GeForce FX 5600两个版本,GeForce FX 5200系列也同样包括GeForce FX 5200 Ultra和GeForce FX 5200两个版本,它们的核心设计上都基于NV30的“CineFX"架构,这意味着它们在对3D特性上的支持基本与GeForce FX 5800 Ultra相同。


规格一览

    Geforce FX5600 Ultra显示芯片内部研发代号为NV31,同样采用0.13um制程工艺生产,晶体管数量约为8000万个,和NV30相比减少了36%。产品定位于Geforce Ti4200接替者,是DX9级别的中端主力显卡。NV31采用了四条像素管线,每条管线的纹理单元缩减到了一个,也是进入Shader时代后,NVIDIA第一个基于4×1架构的核心。显存方面,NV31采用了主流的DDR,虽然速度不及FX 5800 Ultra的DDRII,但是成本及功耗都有大幅的下降。NV31的显存控制方面也有所变动,用两个64-bit显存控制器而不是FX 5800那种四个32-bit显存控制器的设计。NV31也采用CineFX引擎,具有与高端NV30完全一样的技术特性,不过浮点运算单元的数量被精简,具体为Vertex Shader缩减到NV30的1/3,Pixel Shader数量则为NV30的3/4。

    Geforce FX5600 Ultra是系列的最强版本,核心频率最初为350MHz,后来经过改进后提升至400MHz。虽然GeForce FX 5600 Ultra被定为Ti4200接班人,但早期低频版(350MHz)在当时的一些游戏中得性能提升得有限,甚至在部分游戏中还输给了超频后的GeForce4 Ti 4200,这样的表现无疑令人感到意外。面对Radeon 9600 PRO的强劲攻势,GeForce FX 5600 Ultra显然难以招架,只能将对手定为Radeon 9600。

    为了进一步提升Geforce FX5600 Ultra的竞争力,NVIDIA协同TSMC将NV31的封装方式进行了改进,核心频率也提升到400MHz,和Radeon 9600 PRO相同。同时,显存速度也提升到800MHz,这时FX5600 Ultra才真正超越了GeForce4 Ti 4200,与Radeon 9600 PRO也的差距被缩小了很多。不过这也延误了不少时间,新版的FX5600 Ultra直到7月份才上市,让Radeon 9600 PRO独占中端市场数月之久。NVIDIA后来还迁怒于TSMC,并将Geforce FX 5700的NV36核心改由IBM生产。


    Geforce FX5200 Ultra显示芯片的研发代号为NV34,目的是取代Geforce MX440,FX5200的出现也标志着NVIDIA的低端产品线跳过了DX8而直接进入DX9。NV34采用更为成熟的0.15微米工艺,集成的集体管数目大约在4500万个。架构方面和NV31相同,具有4条像素管线及4个TMU单元。NV34核心作为Geforce FX家族中的低端产品,但也采用了CineFX引擎,完整支持DirectX 9.0的Pixel Shader 2.0+与Vertex Shader 2.0+ ,但是去掉了对IntelliSample技术的支持。不过NV34集成TV编码器、TMDS传送器和两个350 MHz RAMDAC,支持高画质电视输出,在多媒体方面有更好的表现。

    Geforce FX5200 Ultra的核心/显存频率分别为325/650MHz;5200标准版则为250/400MHz。Geforce FX5200的推出有效缓解了NVIDIA在低端市场的压力,因为只支持DX7的MX440已经无法胜任新一代游戏。同时在DirectX 规格上Geforce FX5200 也领先对手的Radeon 9000和Radeon 9100。

   

GeForce FX 5200 Ultra


    GeForce FX 5200 Ultra是NV34系列的的最高版本,运行频率325/650MHz,性能较上一代的MX460有一定的提升,而且规格上也是全面领先。但是较高的工作频率使得FX 5200 Ultra必须使用6层PCB(Inno3D 这款采用了8层的公板P140 PCB)以及外接供电设计,这些都提高了该产品的生产成本,FX 5200Ultra版本比普通版本高出至少20美元,接近于FX 5600 XT的售价使其在当时低端市场的地位也是比较尴尬。

   

GeForce FX 5200 TV Tuner

    在低端显卡的市场上,消费者往往对产品的3D性能并不十分关心,但是对显卡的多媒体功能有较全面的的要求,所以Inno3D还推出了GeForce FX 5200 TV Tuner,也是NVIDIA Personal Cinema系列的第二代产品,针对当时的All-In-Wonder Radeon 9000。FX 5200 TV Tuner显卡上板载了一颗数字高频头,以及飞利浦或者其他第三方的解码芯片,配合附送的丰富的专业处理软件,可以为用户提供从家庭影院到视频剪辑、编辑等全方位的数码娱乐体验。总的来说,虽然进入多媒体领域较晚,但是凭借Personal Cinema系列的出色表现,NVIDIA大有后来者居上的架势。

   

GeForce X5600Ultra

    GeForce FX5600Ultra作为系列的最高版本,其做工用料也是非常出色。为了保证高频下的稳定工作,NVIDIA专门为它开发了成本高昂的但具有优良电气性能的P140公版,早期Wirebond封装的NV31核心采用的的PCB是P140/A02版本,后期FC-BGA封装核心为P140/A04。P140公版为8层PCB设计,而且只支持MBGA封装的显存颗粒,同时供电部分也采用了较多的三洋OSCON固态电容,因而FX5600Ultra也有不错的超频潜力。

    但是遗憾的是,由于0.13微米工艺的不成熟,NVIDIA在NV31核心的生产过程中并不顺利,产量始终难以满足市场的需求,而且由于NV31核心设计上的不成熟,很快就让位于NV36核心的GeForce FX5700Ultra。

   
FX5600频率较低,被动散热足以搞定

    Inno3D GeForce FX 5600是系列中的主力产品,相比成本高昂的GeForce FX5600Ultra,FX5600标准板的价格更加贴近主流用户,因而出货量也是系列中最大。FX 5600标准板核心/显存的工作频率分别为325MHz/550MHz,核心频率非常接近FX5600Ultra的350MHz,所以性能与FX5600Ultra的差距不是很大,由于采用了6层PCB,其成本也得到了较好的控制,性价比更高。由于在2003年DirectX 9的游戏还不多见,所以GeForce FX 5600在大多数游戏中还是显示出了不错的性能。同时在当时市场上,Ti4200已经略显老态,Radeon9500缺货现象严重,因而FX5600标准板也为多数主流用户所采用,取得了不错的市场份额。

   

性价比出色,Radeon 9600 SE的克星

    GeForce FX5600XT是GeForce FX5600的低频率版本,默认频率为235/400MHz,公版采用128 bit的4ns显存,售价和GeForce FX5600标准版相比也更加低廉。这也是NVIDIA 首次用“ XT"后缀命名同系列的低端产品,GeForce FX5600XT也是FX5600系列的最低版本。这和对手ATI用“ XT"后缀命名高端显卡的方式正好相反,也容易使用户产生一定的误解。由于GeForce FX5600XT和标准板一样采用了nv31核心,其性能还是得到了相当程度的保证,而且多数FX5600XT都可以超频达到标准板的工作频率,所以FX5600XT还是具有不错的性价比,在多数的非DX9游戏中都可以领先Radeon 9600 SE。
重新审视NV30的失败之处:

    现在回过头来看,NV30在架构的设计上还是存在着不少问题,其中最主要的就是Piexl Shader的处理能力低下。由于NV30的Piexl Shader单元没有co-issue(标量指令+矢量指令并行处理)能力,而在DirectX9.0中,单周期3D+1D是最常见指令处理方式,即在很多情况下RGB+A是需要非绑定执行的,这时候NV30就无法并行执行,指令吞吐量大大降低。其次,NV30没有miniALU单元,也限制了NV30的浮点运算能力。   


RGBA处理过程
    另外,NV30在寄存器设计(数量及调用方式)、指令存储方式(读写至显存)等方面也有缺陷。NV30的寄存器数量较少,不能满足实际程序的需要。而且,用微软的HLSL语言所编写的pixel shader2.0代码可以说NV30的“天敌”,这些shader代码会使用大量的临时寄存器,并且将材质指令打包成块,但是NV30所采用的显存是DDR-SDRAM,不具备块操作能力。同时,NV30材质数据的读取效率低下,导致核心的cache命中率有所下降,对显存带宽的消耗进一步加大。
寄存器调用
  同时,由于NV30是VILW(超长指令,可同时包含标量和SIMD指令)设计类型的处理器,对显卡驱动的shader编译器效率有较高的要求。排列顺序恰当的shader代码可以大幅度提升核心的处理能力。NVIDIA也和微软合作开发了"Shader Model 2.0A",可以为NV30产生更优化的代码。在早期的一些游戏中,这种优化还是起到了一定的作用。但对于后期Shader运算任务更为繁重的游戏则效果不大。

shader代码

    从宏观上说,NV30的整体架构更像是一个DirectX7(固定功能TRUE T&L单元)、DirectX 8(FX12combiner DX8整数处理单元)、DirectX 9(浮点像素单元)的混合体。而在DirectX 9的应用中,不能出现非浮点精度的运算,所以前两者是不起作用的,造成了NV30晶体管资源的浪费,同时也影响了性能。而NV30这种DirectX 7、8、9三带同堂的架构也让我们想起了一个至今仍在广泛使用的3D测试软件: 3DMark03——这会是一种巧合吗?

    虽然NV30的架构决定了它在DirectX 9游戏中的表现不会很好,但是由于在整个2003年,DirectX 9并未成为游戏开发的主流,所以NV30的架构缺陷并未暴露出来。即便如此,NVIDIA还是意识到了NV30的一些不足,并迅速对NV30的像素着色单元做出了改进,并于2003年5月的GDC上,发布了新一代研发代号为NV35的5900系列。

SpeedDrift
 楼主| 发表于 2008-8-29 19:05:48 | 显示全部楼层
亡羊补牢之作——NV35,FX5900

    NV35芯片采用更加成熟了的0.13微米铜互联工艺,芯片的良率比NV30大幅度提升。核心面积为40mm×40mm,采用1309针FCPGA封装,内部晶体管数量达到了1.3亿。虽然比NV30又增加了500万个晶体管,不过通过改进的工艺,NV35的发热量略有降低,因此没有搭配Flow FX散热系统。
  NV35
    新的NV35采用了CineFX2.0引擎,和第1代CineFX相比,NVIDIA对Piexl Shader做出了一定的改进,在保留FX12 combiner的同时增加了两个可进行浮点运算的miniALU,虽然miniALU的功能有限,但是还是使得NV35的浮点运算能力提高了一倍。

    NV30中的CineFX2.0还改进了Intellisample(智能采样)技术,增加了更多的高级纹理、色彩以及Z轴压缩算法以提升图象质量,并重新命名为“Intellisample HTC(高分辨率压缩技术)”技术。

UltraShadow技术

    CineFX 2.0引擎引的另一个改进是引入了UltraShadow的技术。UltraShadow也可以说是为IDSoftware的新一代DOOM3引擎量身打造的,因为DOOM3引擎大量采用了体积阴影技术(Volumetric Shadow),Shadow Volume可以更加精确的表现动态光影效果的场景,但由于阴影体积引入了额外的顶点和面,也加大了光影计算的强度。而Ultra Shadow可以简化光影计算的过程,它允许程序员定义场景中一个区域,将物体的阴影计算限定在一个特定范围内,从而加速阴影的计算速度。此外,UltraShadow技术还允许程序员在一些关键的区域对阴影进行调整,从而创造出可与真实情况媲美的优秀视觉效果。Ultra Shadow还能利用Intellisample HTC技术以确保阴影边缘的
平滑,提高了最终输出的效果。


GeForce FX 5900 Ultra

    由于NV30核心是采用128bit位宽的显存控制器,GeForce FX5800Ultra即使搭配很高工作频率的DDR II显存,在付出了更大发热量和更高成本的代价下,显存带宽(16Gb/s)仍然低于采用256bit DDR I规格显存的Radeon 9700 Pro。所以在NV35也采用了256bit显存控制器,不但可以提升是显存带宽,利用普通的DDR显存代替DDR II还可以减少显卡的成本,而且频率降低后的发热量也小的多。最终,GeForce FX 5900 Ultra搭配的850MHz DDR-I显存可以提供的带宽高达27.2GB/s。

    NV35刚发布时有两个版本——GeForceFX 5900和5900 Ultra,核心频率分别为400MHz和450MHz,而显存频率都是850MHz。因此显存带宽达到27.2GB/s,不仅远远超过GeForceFX 5800 Ultra的16GB/s,也比Radeon 9800Pro的21.8GB/s高出不少。

    虽然在5月发布的5900系列为NVIDIA在高端产品线挽回了不少损失,但是在市场规模、利润最大的中端方面,却面临更严峻的形势,由于ATI在3月发布了RV350,也就是Radeon 9600 系列,再加上因为具有修改潜力而已经颇具人气的Radeon 9500,使其竞争力大幅度提高,而NVIDIA则只能由经典但已显老迈的TI 4200、新一代的5600 Ultra来抵挡ATI的攻势,但是早期的5600 Ultra(350/700)因为自身架构和频率的原因,难以独当一面,在一些应用中性能甚至不敌Ti4200。后期的高频版5600 Ultra(400/800)则迟到了近2个月而且产量有限,业界还传出了NVIDIA在GeForce FX 5600 Ultra的生产上遇到了困难的消息。总之,NVIDIA的一系列变故使得ATI在中端主流市场轻松的获得了领先。

三款FX Ultra版显卡,5800、5900和5950

    直到2003年10月24日,NVIDIA在全球正式发布其代号NV38和NV36的全新一代图形芯片,分别将其命名为GeForce FX 5950 Ultra以及GeForce FX 5700 Ultra。NV38采用了更为成熟的0.13mm的生产工艺,有利于产能的扩大以及芯片频率的提高、功耗的下降。FX  5950 Ultra 的工作频率由FX  5900Ultra的450MHz/850MHz提高到475MHz/950MHz。
    显然由于市场竞争的激烈态势,GeForce FX 5700 Ultra才是这次发布的重头戏。GeForce FX 5700芯片的开发代号为NV36,目的是替代GeForce FX 5600和GeForce FX 5600 Ultra。NV36内部集成了8200万个晶体管,虽然同样为4X1架构,具有4条像素管线及每管线一个TMU单元,由于继承了NV35的Cine FX2.0体系架构和Ultra Shadow阴影加速技术,顶点处理能力、特别是浮点性能比NV31提高了200%--300%。显存方面和NV31相同,使用了两个64-BIT显存控制器支持128-BIT的显存位宽。

    有鉴于在NV31核心的生产遇到的种种意外,这次nVidia 将NV36交由IBM 生产,GeForce FX 5700也是IBM与nVidia合作的第一款产品。不过GeForce FX 5900/5950仍由TSMC负责生产。和GeForce FX 5600一样,GeForce FX 5700也基于0.13微米工艺制造,但是IBM采用了低介电系数材料工艺(low-k dielectric),用来绝缘核心中的导体环路,在不增加功耗的情况进一步提升核心频率。

    所以GeForce FX 5700 Ultra核心频率提高到475MHz,比FX 5600 Ultra高出75MHz。显存方面则搭配了日趋成熟DDR2的显存,工作频率900MHz,提高了性能的同时,也减少了功耗。后来,GDDR3显存的FX5700Ultra,GDDR2跟GDDR3的针脚是兼容的,所以不用重新设计PCB。由于GDDR-3的Latency比GDDR-2要高,所以将其显存工作频率升至950MHz 。

    整体来看,GeForce FX时代让NVIDIA陷入低潮,高中低端都损失了大量份额,但在当时N卡凭借价格优势和NVIDIA自身驱动方面的优势还是一大批忠实的拥护,尤其是在FX5900和FX5700发布之后,诞生了一大批经典产品:
亡羊补牢为时不晚,FX5900衍生物苦苦支撑到GF6发布
   
Inno3D GeForceFX 5900Ultra

    Inno3D GeForceFX 5900Ultra显卡为系列的旗舰级产品,配备了256MB DDR显存价格也是非常的昂贵。其性能较GeForceFX 5800Ultra有了不小提高,虽然其采用了改进的0.13微米工艺,但是发热和功耗依然不小, Inno3D采用了一个双槽的散热器,散热片体积很大,密集的鳍片了有效的增大了散热面积,结合通道式导风扇罩引导气流从右端排出,迅速将核心热量带走,具有高效、静音的特点。

   
Inno3D GeForce FX5900标准版

    GeForceFX 5900Ultra虽然性能顶尖,但是高达500美元的价格也让人难以接受。Inno3D GeForce FX5900同样基于NV35核心,显卡核心/显存运行频率为400/425 MHz,而且可以轻易的超频至5900 Ultra的水平,所以在性能上得下降并不大,由于采用了128MB显存,售价也下降了100美元。

   
Inno3D GeForce FX5900 SE

    无论是GeForceFX 5900Ultra或是5900普通版,虽然拥有目前超强的性能,但是过高的售价无疑成为了其走向普及的最大障碍。按照NVIDIA一惯的作法,为了扩大产品占有率往往会出一些系列高端的简化版。虽然在2003年8月份NVIDIA发布的雷管驱动泄漏的信息中发现了“5900SE",但是很快也被NVIDIA官方所否认。由于预见到FX 5900低频版的潜在市场巨大,一些有实力的显卡厂商通过研发迅速推出了标识为FX5900SE的显卡产品,Inno3D GeForce 也是其中较早推出的厂家之一。
驱动中泄漏的 FX5900SE
  实际上NVIDIA的产品线中并没有“ FX5900SE"这款芯片,尽管目前有不少显卡厂商使用这样的名称来命名自己的显卡产品。根据当时NVIDIA的规定, NV35系列的显卡,除了GF FX5900Ultra外, FX5900的规格,比如PCB,显存/核心频率等参数,厂商均可以自由设定。同时,NVIDIA在2003年秋季也针对GF FX5900开发出了第二种公版,也就是P177板型,P177简化了P172板型的10层PCB设计而采用8层,厂商可以使用这种板型,搭配相应规格的显存来推出“普及型”的 FX5900。

    综上所述,叫做“FX5900SE"的显卡,使用的芯片和标准 FX5900是完全一样的NV35。只不过在做工和频率方面, "GF FX5900SE"有所简化与降低。这种简化却使FX5900SE拥有比GF FX5900标准版更超值的价格,显卡的性价比大幅度提高。这也就是FX5900SE推出的市场背景。

    Inno3D GeForce FX 5900SE,核心频率和标准版一样为400MHz。采用了P177公版,是8层PCB简化设计,比FX5900的十层PCB和奢华的供电系统,成本大幅度降低,这也是FX5900se能够以1999元价格上市的原因。

    总的来说,Inno3D GeForceFX 5900SE只是FX5900的低频版,做工方面也保持了相当的水准,三洋OS-CON Low ESR固态电容的使用使得产品的超频能力更强大。根据当时的评测结果,大部分GeForceFX 5900SE都可以GeForceFX 5900Ultra的频率,性价比很高。

   
Inno3D GeForceFX 5900XT

    NVIDIA曾乐观的估计到2003年圣诞节前,基于NV35核心的出货量可以达到60万,不过由于GeForceFX 5900高昂的售价,这一目标实现起来也是难度不小。由于当时很多厂商都推出了GeForceFX 5900SE,销售情况也很不错,但是由于这并非NVIDIA的官方行为,所以多少有些名不正言不顺的感觉。为了扩大并且规范GeForceFX 5900产品的出货,2003年12月前后,NVIDIA正式将GeForceFX 5900SE命名为FX5900XT,默认频率为390MHz/700MHz,也是P177公版的设计,由于有了NVIDIA的支持,其价格较5900SE也有所降低,Inno3D GeForceFX 5900XT得上市价格只有1589,性价比很高。

    由于对手ATI用“XT"后缀命名高端产品,例如Radeon 9800XT,NVIDIA则用“XT"命名了5900的低频版,这种做法虽然引起了一些非议,但是市场效果还是不错,也反映了NVIDIA市场手段的灵活。

   
Inno3D GeForce FX 5900 NPC

    Inno3D GeForce FX 5900 TV Tuner显卡是针对ATI All-In-Wonder Radeon9800XT,也是Personal Cinama家族中3D性能最强的产品。同时凭借出色的视频功能,将3D游戏与家庭影院功能整合到一起,为用户提供全方位的数字娱乐体验。

   

GeForce FX5700Ultra

    GeForce FX5700Ultra是NV36核心的最高频版本,最初采用了DDR II显存,运行频率为475/450 MHz,较高的工作频率已经接近当时0.13微米工艺的极限,所以GeForce FX 5700 Ultra采用了高规格8层P190公版PCB以及较为奢华供电电路,并提供了外接供电接口。同时由于显存频率也很高,所以搭配了DDR II显存,这些也使得FX5700 Ultra的成本较高,售价更是超过了200美元。由于NV36核心可以支持全部的DDR I、II、III显存颗粒,后期FX5700Ultra采用了DDR III显存颗粒后,显存频率更是提高到950MHz。

    现在来看,GeForce FX5700 Ultra的定位与GeForceFX 5900XT有些重叠,当时二者的售价都在200美元左右,显然FX 5900XT的性能更高,这也注定了GeForce FX5700 Ultra的尴尬的地位。

   

GeForce FX 5700

    如果说GeForce FX 5600并不是GeForce4 Ti4200合格的接班人的话,那么凭借改进的CineFX 2.0架构以及较高的运行频率(默425MHz/550MHz),GeForce FX 5700才真正有资格作为Ti4200的继任者。GeForce FX 5700采用了公版P191设计,为6层PCB,周边电路有所简化,成本上也更低,相比FX5700 Ultra 200美元的价格,FX5700的上市售价也仅为135美元,性价比较高,也吸引了相当多的注重性价比的中端游戏玩家。

   

GeForce FX 5700LE

    虽然GeForce FX 5700性能不俗,但其针对的是100美元以上的中端市场,当2004年5月左右ATI推出性价比更高的9550后,NVIDIA再低端市场的处境更加不妙。由于5600系列已经停产,这一市场上只好靠孱弱的FX5200与英雄迟暮的GeForce4 Ti4200来抵挡9550的攻势,这显然是不够的。加之2004年初,大量的DX9.0游戏已经上市,这无疑使得NV31、NV34架构上的不足反映的更明显。

    为了挽回在低端市场的劣势,NVIDIA推出了GeForce FX 5700的降频版——GeForce FX 5700LE,以顶替FX5600XT的位置。GeForce FX 5700 LE核心/显存频率为250 / 200 MHz,和对手的Radeon 9550相同。FX 5700LE采用了专门开发的4层P222公版PCB,通过降低运行频率,可以大幅度降低成本,同时由于支持CINFX 2.0以及Ultra Shadow等新技术,其在DOOM3中的表现也很不错,伴随着DOOM3的热卖,所以GeForce FX5700LE成为当时500-700元市场的有力竞争者。同时,FX5700LE同样采用的是0.13微米、FC-PGA封装的NV36核心,朝频潜力很大,对ATI构成了一定的威胁。所以,在FX5700LE发布的当天,ATI就不得不把Radeon 9600SE的产品价格降低30%。

    GeForce FX5700LE并不是5700家族的最后一款产品,2004年后期,NVIDIA还推出了GeForce FX5700VE,是一款专门针对OEM市场核心。随着后期FX5700/5700 Ultra的停产,为了弥补低端AGP接口产品线的缺口,其也被用于零售市场的销售。FX5700VE采用和标准版同的34x34封装,而FX5700LE采用了31x31封装,除此以外,二者规格完全相同,此处不再详细介绍。


Inno3D GeForce FX PCX 5300

    2004年后,主板芯片组逐渐提对PCI-E的支持,市场PCI-E接口显卡的需求开始增长,由于当时显示核心都是原生AGP接口,NVIDIA采用了HSI桥接芯片的方式,实现了对PCI-E的支持。



HSI桥接芯片工作原理

   GeForceFX  PCX5300是NV34图形芯片加上一块HSI桥接芯片,将并行的AGP 8X以无损的方式转换为串行的PCI-E信号。实际测试表明,桥接的方式对显卡性能几乎没有任何影响,既不会因为外部带宽的提升提高显卡性能,也不会因为桥接芯片的使用降低显卡性能。

Inno3D GeForce FX PCX  PCX5750

    GeForceFX  PCX5750由NV36图形芯片搭配BR2桥接芯片实现对PCI-Express X16接口的支持。PCX5750面向中端市场,其对手是ATI的X600系列产品。

NVIDIA陷入苦战,需要强力产品扭转局面

    2003年第四季度,NVIDIA在图形核心市场的占有率首次被ATI以微弱优势所超过,这也说明GeForce FX系列显卡在与Radeon 9系列的较量中处于下风。不过在整个2003年,由于基于DirectX 9开发的游戏屈指可数,所以中高端市场上GeForce FX显卡的表现并不差,高端方面,除了GeForceFX5800输给了Radeon 9700以外,GeForce FX5900又很快收复了失地,并与Radeon 9800旗鼓相当。在整体利润最大的中端尤其是150美元左右的市场,NVIDIA囤积重兵,先后使用了GeForce4 Ti、GeForce FX5600、GeForce FX5700三款产品,而Radeon 9500、9600在当时没有DirectX 9游戏支持的情况下,并没有占得太大的便宜。
Q1'04又夺回了第二的位置
    然而在低端100美元以下市场上,NVIDIA就很不好过了。主要是GeForce4 MX440、GeForce3 Ti200、GeForce FX5200完败给对手的Radeon 9000/9200。和MX440相比,Radeon 9000在成本相当的情况下有规格优势,而与GeForce FX5200相比,Radeon 9000除了成本、功耗的优势外,凭借优秀的着色器效率,在性能上也略微领先,低端市场对占有率影响更大,这就是ATI占有率得以反超的原因。

DX9游戏出现之后,FX系列的日子越来越不好过了

    时间进入2004年后,DirectX 9的普及速度被加快,这显然是NVIDIA史料未及的,2004年3月,一大批基于DirectX 9的重量级游戏如FARCRY、PAINKILLER、INVISABLE WAR等纷纷上市,使得GeForce FX系列浮点处理能力不足的缺陷终于完全暴露了出来,这也直接影响到该系列显卡的销售,NVIDIA也进入了颇为艰难的一段时期,2004年第二季度利润额下滑了将近80%(收入额为510万美元,而一年前为2420万美元),当然这不光是与ATI竞争的结果,INTEL的整合芯片组的大规模普及也影响到独立图形核心领域。
您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2025-1-23 03:08 , Processed in 0.153839 second(s), 17 queries .

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表