GeForce 7800GTX大解析

来源 :个人电脑 | 被引量 : 0次 | 上传用户:bazzi89
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
  24条渲染管线、CineFX 4.0引擎、全新的透明反锯齿技术、UltraShadowⅡ阴影渲染以及更强劲的PureVideo视频处理引擎,所有这一切都使之成为当前最强悍的消费级显卡。
  
  当我们还在为GeForce 6800 Ultra具有的超强效能惊叹不已的时候,nVIDIA的战车已经隆隆向前,仅仅在GeForce 6800 Ultra现身的14个月后,nVIDIA就拿出它的接替者,也就是代号为“G70”的GeForce 7800 GTX图形核心,由此揭开一个全新的图形时代。而在这之前,nVIDIA为索尼PS3游戏机设计的“RSX”GPU也登台亮相,这两者尽管用于不同的平台上,但却采用相同的硬件架构。作为面向未来的新一代GPU,GeForce 7800 GTX在发布之后迅速成为业界的焦点,对此关注已久的游戏业界更是如此。而这一次,ATI并没有及时跟上步伐,由于R520芯片工艺转换不顺,被迫延迟到第三季度末推出,nVIDIA由此继续在高端旗舰领域保持领先。当然,这种领先优势更多是一种宣传效应,毕竟顶级显卡价格昂贵、市场规模有限,但这种技术领先优势往往能对消费者的购买倾向产生重大影响,进而在主流竞争中占据有利地位。nVIDIA高调宣称, GeForce 7800 GTX为全新架构的产品,它将提供丰富的视觉特性和前所未见的超高性能,且为运行Longhorn系统作好了准备。
  
  GeForce 7800 GTX技术概要
  
  


  在正式发布之前,关于G70有无数的“江湖传闻”,例如晶体管数量超过3亿、渲染管线达到24条甚至32条,单卡的性能可媲美GeForce 6800 Ultra SLI系统—诸如此类的消息满天飞,在GeForce 7800 GTX真正到来的时候,这些传言也一一得到证实,而它近乎恐怖的规格也让外界感到惊讶。
  在基本架构上,GeForce 7800 GTX仍然承袭于GeForce 6(NV40)系列,但它存在大量的技术改进,其中最为人瞩目的当属渲染流水线设计。众所周知,顶点渲染管线(Vertex Shader)与像素渲染管线(Pixel Shader)是决定显卡性能的决定性因素,由于这两个渲染管线的设计都被标准化,nVIDIA和ATI只能通过增加其数量来达到快速提升性能的目的。nVIDIA的NV40拥有6条顶点渲染管线和16条像素渲染管线,其效能比前一代的GeForce FX5900提升了一倍。而GeForce 7800 GTX的出台让历史再度重演,它拥有8条顶点渲染管线和多达24条像素渲染管线,规格大幅超越GeForce 6系列,且各渲染单元内部的算法、流程都获得优化,强悍的规格一举奠定了GeForce 7800 GTX的王者地位。nVIDIA将GeForce 7800 GTX的顶点渲染与像素渲染管线合称为“CineFX 4.0引擎”,这也是我们将在下文重点讲述的内容。
  然而,nVIDIA也为此付出了高昂的代价。16条管线的GeForce 6800 Ultra已拥有2.22亿晶体管,而提升到24条的GeForce 7800 GTX的晶体管规模达到夸张的3亿9百万—如果你对此没有感性的认识,不妨来看看以下参照:AMD的Athlon 64 X2与Intel的Pentium D双核处理器,晶体管数目都在2.3亿左右,GeForce 7800 GTX整整比它们多出接近8000万。晶体管数量如此庞大,不可避免产生许多不良后果:其一,集成度越高,芯片的面积就越大,单块晶元可切割出的芯片数量就越少,制造成本自然越高—GeForce 7800 GTX采用0.11微米制造工艺,一块晶圆只能切出70枚芯片,制造成本远高于Intel或AMD的处理器产品,加上高速显存价格昂贵,这类旗舰级显卡售价高昂也在情理之中;其二,晶体管的数量越多,要保证每一个晶体管都完好无损就变得更困难,良品率很难保证。早在NV30时代,nVIDIA曾有过一次惨痛的教训,这一次它在工艺选择上就保守了许多。0.11微米工艺(台积电代工)虽然看起来有些落伍,但胜在技术成熟,良品率较有保障;第三,晶体管规模越大,芯片的功耗和发热量就越发难以控制,工作频率也很难获得进一步提升—但称得上奇迹的是,GeForce 7800 GTX的功耗/发热量并没有比GeForce 6800 Ultra高太多,GPU自身的峰值功耗仍维持在100瓦左右(不包含显存部分),而工作频率也保持在430MHz的水平(GeForce 6800 Ultra的核心频率为400MHz),显卡散热系统的噪音也只有24分贝,这一次nVIDIA的表现确实非常出色。
  


  渲染管线的数量增加并不是GeForce 7800 GTX性能强悍的唯一理由,我们应该注意到这样的一个事实:GeForce 7800 GTX的性能接近于GeForce 6800 Ultra SLI系统,而后者拥有12条顶点管线和32条像素管线,晶体管数量总和达到4.4亿,GeForce 7800 GTX单卡和它比起来根本不在一个量级上;加之GeForce 7800 GTX的功耗水平只有GeForce 6800 Ultra SLI系统的一半左右,除了运行效率大幅提升外,没有任何别的解释。从这个意义来说,架构改良的GeForce 7800 GTX完全称得上划时代的产品,它开始脱离了仅依靠渲染管线数量和晶体管规模来获得高性能的机械做法,而是通过对架构进行深层次的改良,从而在执行效率上获得突破。
  除了CineFX 4.0引擎之外,GeForce 7800 GTX还具有大量的先进技术特性,如采用Intellisample 4.0智能采样技术,引入透明自适应超采样(supersampling)和透明自适应多采样(multisampling)两种全新的抗锯齿模式,可有效提高抗锯齿功能的质量和性能,为玩家们带来更为出色的游戏体验。API方面,GeForce 7800 GTX不仅能够支持现有的DirectX 9.0c Shader Model 3.0、Open GL 2.0和64bit浮点纹理滤波/混合功能,支持微软即将推出的WGF 1.0 API和Longhorn Display Driver Model驱动程序更是让它走在时代前沿。可以肯定,GeForce 7系列已经为Longhorn做好了准备,倘若你希望构建的PC平台能够完美地运行Longhorn,GeForce 7系列显卡几乎将成为目前唯一的选择。
  
  CineFX 4.0渲染引擎
  
  CineFX 4.0引擎是GeForce 7800 GTX最核心的部分,它包含顶点渲染单元、像素渲染单元和纹理处理单元,其中纹理处理单元为CineFX 4.0新增的特性之一。在渲染精度上,CineFX 4.0依然保持16bit/32bit的设定,它可采用16bit的半精度浮点数据和32bit的全精度浮点数据,CineFX 4.0引擎内拥有独立的16bit通道和32bit处理通道,而通过多通道捆绑的方式,CineFX 4.0引擎最高可支持128bit精度的数据。不过在顶点渲染和像素渲染的处理过程中,所有参与运算的数据都采用32bit精度。高精度运算带来的好处就是生成的3D影像会更接近真实,游戏原貌可得到更好的展示,相比ATI产品的24bit精度渲染,nVIDIA在这方面显然存在不小的技术优势—尽管这种优势无法在游戏速度的较量中直观地体现出来。而在纹理过滤、纹理混合和反锯齿相关的运算中,CineFX 4.0可支持整数、16bit精度和32bit精度,至于采用何种设定则取决于游戏本身。
  下面,我们将向大家介绍CineFX 4.0引擎中的顶点渲染、像素渲染和纹理渲染等三大处理单元。
  
  顶点渲染单元
  


  
  顶点渲染单元负责生成3D图像的骨架,三角形的每个顶点信息都是由它计算完成。相对像素渲染,顶点渲染的工作量要轻得多,但它承担了3D运算的基础工作,对GPU的最终效能有着决定性的影响。前面我们提到,GeForce 7800 GTX拥有8个顶点渲染单元,比前代GeForce 6800 Ultra多出两个,性能得到进一步提高;而与GeForce 6800 Ultra一样,GeForce 7800 GTX的顶点渲染单元也提供了对Smart Shader 3.0的完整支持。
  图5所示为GeForce 7800 GTX顶点渲染单元的内部结构,它包括一个32位浮点标量单元(FP32 Scalar Unit)和一个32位浮点向量单元(FP32 Vector Unit),还包括一个顶点纹理预取处理单元(Vertex Texture Fetch),三者运作并行,渲染单元自身的流程控制机制可根据任务需求对其进行自由调度。nVIDIA声称,它们对顶点渲染单元内部结构进行重新设计,有效减少了运行过程存在的延时,从而有效提高单个顶点渲染单元的效率。不过,GeForce 7800 GTX在顶点渲染部分最重要的改进当属为“Triangle Setup(三角形设定)”单元改用全新的算法。其实早在Voodoo2时代,我们就了解到Triangle Setup的概念—顶点渲染单元所生成的大量顶点数据,必须被送到像素渲染单元(Pixel Shader)作像素级别的渲染,在这期间就需要“Triangle Setup”的操作,它可以将顶点数据分组成为三角形,也就是将顶点数据进行光栅化—这是一个连续的数据运算过程,在该过程中所有三角形都将被分割为一定数量的光栅,而像素渲染处理紧接着光栅化操作进行。不过,上一代CineFX引擎的Triangle Setup算法并未达到理想境界,光栅化操作速度不够快,且无法与随后的像素渲染高效衔接,所产生的延迟不可避免影响到GPU的效率。而在GeForce 7800 GTX的CineFX 4.0引擎中,nVIDIA重新设计了Triangle Setup处理的算法,令Triangle Setup处理过程大大加速,而它与像素渲染步骤的衔接也得到同步强化。最终我们可以看到,虽然GeForce 7800 GTX的顶点渲染单元只比GeForce 6800 Ultra多出2个,但顶点处理效能却几乎提升了一倍之多。
  
  


  像素渲染单元
  像素渲染是3D处理中最关键的工作,大家在游戏中看到的大量水面波纹、反光、凹凸质感、旗帜飘扬之类的特效都是由它处理,任务量最为繁重、对性能的影响也最大。无论nVIDIA还是ATI,总是在像素单元的硬件设计及数学算法上精益求精,力求提高处理效率。在GeForce 7800 GTX中,这种思想也得到忠实的贯彻。GeForce 7800 GTX拥有24条符合Pixel Shader 3.0标准的像素渲染管线,可工作在24×1模式下,且在最高等级的32bit精度下依然具有卓越的表现,单单在管线数目上就比前代产品高出50%,性能大幅提升也就理所当然。
  除了增加渲染管线数量外,CineFX 4.0在该领域的另一项重要改进是对像素渲染管线进行结构性改良,由此有效提高了MADD的运算能力—MADD(Multiply-ADD)其实就是指数学函数中的乘法运算与加法运算,这两种运算在3D图形中最为常用,折射效果、反射效果、模糊效果、光线照明、法线贴图等许多运算都主要依赖乘法和加法操作。因此,MADD效能的高低对整个像素渲染操作有着举足轻重的影响,如果能够通过结构改良提升其效能,无疑能让GPU的效能获得立竿见影的提升。GeForce 7800 GTX忠实地贯彻这种思想,nVIDIA对负责MADD运算的功能单元作专门的优化,使其运算效能比前一代显卡高出两倍。再加上大幅度增加的管线数目,令GeForce 7800 GTX具有与GeForce 6800 Ultra SLI系统相比拟的超强实力。
  
  


  纹理引擎与HDR高动态范围
  CineFX 4.0包含一个全新设计的纹理引擎,这也是CineFX 4.0的主要亮点之一。该纹理引擎专门用于纹理相关的读取和保存操作。相比常规设计,专门的纹理引擎显然拥有更出色的执行效率,开发人员可快速方便调用不同的纹理样本,对提高游戏的纹理精度相当有利。其中,受益最明显的应当是高动态范围(HDR)的渲染任务—HDR(High-Precision Dynamic-Range)是nVIDIA在GeForce 6800中引入的新技术,其目的是提高高动态范围3D场景的细节表现力。
  我们知道,电脑所显示的色彩是通过红、绿、蓝三原色的组合实现的,为表现不同的色彩亮度值,又引入了Alpha值的概念。目前电脑显示器可为每个通道分配8bit的空间,也就是每个通道拥有256种颜色值,综合起来就是大家常说的32位色。理论上说,只要有32位精度输出,便能够在显示器上生成精确的色彩效果。但对3D图形处理来说,32位精度是绝对不够的,原因在于图形运算往往都非常复杂,定义颜色的数值会在运算过程中发生变化,产生不同的中间数值;而谁也无法保证这些中间数值会是256种颜色值中的一个,它完全可能出现非整数的中间颜色值,这个时候若要存入该数据就得采用取整操作—经过多次运算、多次取整操作,累积下来的误差足以导致图像色彩产生致命的失真甚至被丢失。但传统的显卡并没有在这方面加以注意,32位精度计算往往导致计算结果出现大量的误差,反映到最终生成的3D画面上,就是暗部的色彩细节丢失殆尽,屏幕上显示的是黑糊糊的一片。而从GeForce 6800 Ultra开始,nVIDIA采用64位精度的浮点型数据来存放颜色数值,在光传递运算中各区域的色彩都保持原样,暗部细节照样清晰可见,展现出的视觉效果也极为逼真。而在GeForce 7800 GTX中,HDR技术得到完整的继承,且在纹理引擎的帮助下,HDR相关的渲染任务将获得明显加速,那些拥有高精度光影效果的3D游戏将成为最大的受益者。
  
  Intellisample 4.0反锯齿技术
  


  
  反锯齿技术向来都是GPU技术的一大重点,尤其是在那些不能获得更高分辨率的应用中,反锯齿技术就成为提升画质的唯一途径。不过,反锯齿技术在提升画质的同时也会加重GPU的负担,如何在性能和画质间取得平衡就是一个关键,nVIDIA与ATI对此都给予了充分的重视。而在GeForce 7800 GTX中,我们有幸看到nVIDIA的Intellisample(智能采样)反锯齿技术升级到4.0版。Intellisample是nVIDIA对其反锯齿以及过滤技术的统称,与NV4X时代的Intellisample3.0相比,4.0版增加了两项全新的反锯齿技术:TSAA(透明动态超采样)与TMAA(透明动态多采样)。
  在介绍这两项技术之前,我们必须先来了解一下反锯齿技术的背景。众所周知,我们平常使用的显示器(不管是CRT、LCD还是其他技术)都是离散的设备,它的分辨率是有限的,无法显示出任意位置的点;而实际上,我们所需显示的图像或文字都是由连续的线条构成—计算机屏幕无法显示出连续的线条,而是以点的轨迹来实现,只是因为相邻的点非常密集,在视觉上造成“连续线条”的错觉。问题接踵而来,屏幕所能显示的点的位置总是受到限制,显卡的输出无法真实体现,也就是说显示出的位置与它应该存在的位置会有偏差,由此就产生了边缘锯齿现象。大家可以打开画图软件画一个圆,便会了解轮廓锯齿是怎么回事。同样,3D画面也深受锯齿的困扰,物体无法显示出平滑的轮廓而是充满锯齿,视觉效果相当差。为此,反锯齿技术在引入之后迅速获得流行,并成为GPU技术中极为重要的一环。
  目前流行的反锯齿技术以FSAA全景反锯齿为主,该技术支持从2X到16X的采样—采样倍率越高,物体的轮廓线条就越平滑、视觉效果越好,但游戏性能也会因此等比例下降。但是,FSAA并非万能,如果游戏采用的是微软DirectX3D API,那么FSAA技术就无法对诸如树木、栅栏、草等物体进行反锯齿运算,原因在于这些物体的构型都使用数量较少的多边形,有时候甚至只使用一个多边形,如果这类物体的轮廓相互交叠(如一大片草地、连片的树木或栅栏等等),那么它们的边缘像素实际上处于纹理之内,此时传统的FSAA反锯齿根本无法进行采样。
  


  GeForce 7800 GTX引入的TSAA和TMAA两种透明采样技术专门针对这种情况。前者通过植入控制纹理的ALPHA通道来解决问题,TSAA使得一定边缘的区域拥有一个可控制ALPHA混色的功能,通过对它的设定就能使像素可接收到反锯齿失真的必要数据,并在此基础上实施超级采样及反锯齿运算—通常状况下超级采样效率较低,需要漫长的执行时间,以至于很少得到采用。而GeForce 7800 GTX创建了一种自适应采样算法,可仅对图形中部分选定的区域执行超级采样,这样就可以在保持较高性能的同时有效提高画面品质。而TMAA透明动态多采样技术在实现原理上与TSAA类似,只是采取不同的采样算法,侧重于保证显卡的运行效能,但反锯齿效果略不如TSAA。
  
  UltraShadow Ⅱ阴影渲染
  


  
  在新一代3D游戏中,阴影效果是必不可缺的,而阴影效果的精准与否对3D场景的逼真程度几乎有着决定性的影响。然而,阴影计算涉及到场景中的多组光源以及无数个体的复杂互动,尤其在运动剧烈的第一人称射击游戏中,阴影计算所耗费的运算资源大得惊人。看到这种情况,nVIDIA在NV35、NV36、NV38时代就开始引入一项名为UltraShadow的阴影渲染技术,通过去除不必要的运算达到降低任务负荷、提高性能的目的。尽管这项技术相当出色,但它直到NV40时代的UltraShadowⅡ版本后才广为人知。与第一代技术相比,UltraShadowⅡ的阴影计算速度整整提高了3倍之多。如果设计者在编制阴影相关的程序时增加一组专门的呼叫函数,运算性能还有机会获得进一步提升。UltraShadow Ⅱ的卓越表现赢得业内人士的交口称赞,也成为GeForce 6800 Ultra的一大卖点。GeForce 7800 GTX仍然沿用了UltraShadow Ⅱ技术,但它的阴影渲染性能又比GeForce 6800 Ultra提高两倍,可很好应付那些具有高度复杂阴影光效的3D应用。
  我们先来看看3D游戏中阴影的生成原理。在现实世界中,阴影效应因光线被物体遮挡而产生,3D环境下同样采用类似的机制来创建阴影:将物体沿着光线的方向扩展成一个棱台,该棱台内的所有物体都处于阴影之中,它也被称为“阴影锥”或“阴影体积”。那么,GPU如何判断某个物体是否在这个阴影锥内呢?这个时候,它就必须用到“模板缓冲”(Stencil Buffer,也叫“蜡版缓冲”)。模板缓冲好比是蜡染中的蜡层,可以遮罩住3D画面的任意区域,这样这些区域就暂时不被绘制,之后我们再对整个画面作光照计算—由于阴影锥内的物体被模板缓冲遮住,光照计算并不会涉及到其中的物体,体现在视觉上就是阴影锥内的物体无法被光线“照到”,阴影效果由此产生。
  


  但是,上述模板阴影锥技术并没有考虑到光源和阴影的影响范围,导致那些位置有可能在阴影后面,但远处不在阴影内的物体也被纳入计算范围,这就带来像素填充上的浪费。第二个缺陷在于,不管这个物体或场景是否最终在屏幕上显示,GPU都必须对其光影效果进行计算,这不仅毫无益处且耗费了大量的硬件资源—这两大不足造成了许多显卡在运行DOOM3之类带复杂阴影效果的3D游戏时慢如蜗牛。而GeForce 6800 Ultra和GeForce 7800 GTX具有的UltraShadowⅡ技术就很好地解决了这些问题,该技术允许编程人员定义场景远近的光影界线区(也称为“深度界线”),物体只要超出这个界线,不管它是否处于阴影锥的包围之内,都不进行阴影计算,阴影处理运算由此获得明显加速。第二项改进在于,UltraShadowⅡ只针对可以显示在屏幕上的3D场景或物体进行光影计算,那些未得到显示的隐藏内容则不予处理,GPU的运算负担便大大减轻,此举也带来明显的效能增益。
  
  新技术带来强悍视频性能
  


  
  在早些时候,视频技术一向是ATI产品的专长,但在nVIDIA推出GeForce 6800 Ultra之后,这种情况就被彻底扭转。而起到关键作用的就是GeForce 6800 Ultra所整合的Video Processor视频处理器。
  Video Processor具有强大的视频编码/解码能力,它除了可支持MPEG-1、MPEG-2和HDTV高清晰影像解码外,还能够对MPEG-4(DiVX)、WMV9(标准分辨率和高清晰分辨率)等视频进行硬件编/解码,同时它还对场交错自适应消除、高品质缩放、伽马纠正、噪声降低、WMV9/H.264运动补偿和色块消除等功能提供最底层的硬件支持,使得计算机在执行这些任务时不需要耗费多少CPU资源,而视频画面的品质也可得到明显的提升。其次,GeForce 6800Ultra的视频处理器提供了强大的可编程能力,工作人员可以针对性地进行视频编码操作,在PC上实现高品质的视频编辑处理成为可能。而在过去,这项任务也必须由CPU或者昂贵的视频编辑卡来承担。但非常遗憾的是,Video Processor在开始时并没有表现出应有的水准,如在WMV-HD视频回放时就出现处理器占用率极高的情况,其中原因就在于软件支持迟迟不到位。直到2005年的1月份,nVIDIA才推出PureVideo技术,该技术可直接支持HDTV高清晰视频、硬件加速HD-MEPG2解码、硬件加速WMV-HD解码、高阶动态自适应交错、全分辨率视频增强、扩展颜色支持、有害剪辑检测等大量的先进技术特性,充分发挥出Video Processor在该领域的专长。
  


  在GeForce 7800 GTX身上,Video Processor设计同样得到继承,但GeForce 7800 GTX所整合的Video Processor单元由原先的一组提升到三组,提供了包括硬件MPEG-2编码、硬件HDTV编码以及日趋流行的WMV-HD硬件加速功能,再配合PureVideo技术,GeForce 7800 GTX在视频领域表现出强大的竞争力。在播放1920×1080分辨率的HDTV影像时,画面细节纤毫毕现,且效果非常流畅没有任何停顿感,而CPU的占用率也被控制在40%-60%范围内。显然,GeForce 7800 GTX的Video Processor引擎与PureVideo技术在此发挥出关键作用。
  
  


  


  继承SLI技术
  
  自GeForce 6800 Ultra开始引入的SLI技术让nVIDIA一度大出风头,籍由双显卡并行运作的机制,SLI系统可获得80%-90%的高幅度性能提升,创立了高端图形平台的新标准。而该技术推出之后,也获得市场的广泛认同,尤其是nVIDIA拿出配套的nForce4 SLI芯片组平台,更是将SLI应用推向极致。不过,SLI技术并不完美,它只有在少数游戏中才能发挥作用,而在多数游戏中效能与单卡运行没有什么区别—在ATI推出兼容性更好的CrossFire并行多显卡技术后,GeForce 6800 Ultra SLI开始遭遇强大挑战。
  


  GeForce 7800 GTX的及时出现很好提升了nVIDIA系统的竞争力,GeForce 7800 GTX对SLI的支持更为到位,新的雷管75驱动程序配合GeForce 7800 GTX可以让用户选择更多的SLI运行模式,从而提高游戏的适应性;而GeForce 7800 GTX SLI系统在游戏中表现极为抢眼,性能比单卡运行时有了高幅度的提升,再度刷新了显卡3D性能的巅峰纪录。另一个同样值得称道的地方在于,GeForce 7800 GTX的散热器只采用单插槽设计,组建SLI系统也仅需占用两个槽位;而之前GeForce 6800 Ultra显卡的散热器体积较为庞大,单单一块显卡就得占用两个扩展槽位,如果再SLI搭建系统,计算机的扩展力将因此受损。
  
  


  前瞻
  
  GeForce 7800 GTX的发布意味着一个全新的时代到来,24条渲染管线、CineFX 4.0引擎、全新的透明反锯齿技术、UltraShadowⅡ阴影渲染以及更强劲的PureVideo视频处理引擎,所有这一切都使之成为当前最强悍的消费级显卡。作为先导,GeForce 7800 GTX的率先发布意味着nVIDIA在新一轮竞争中获得领先优势,尽管外界传言ATI的R520 GPU可望拥有凌驾于GeForce 7800 GTX的实力,但我们对此并不确信,更何况R520至少要在第三季度末才有机会推出,时间表比nVIDIA落后了一大截。
  倘若你并非游戏玩家,GeForce 7800 GTX的超强性能或许没有太大意义,但当你看到GeForce 7800 GTX适时渲染出的电影级3D画面时,无论如何都会产生一种向往之情,或许这就是今日图形科技的真实魅力。另外,如果你打算让自己的爱机可为运行Longhorn系统做好准备,一块GeForce 7级别的显卡应该是目前最佳选择之一。在未来的几个月时间里,我们将看到nVIDIA相继拿出中端和入门级的GeForce 7系列显卡,一次新的更新换代由此开始。
其他文献
2005年7月5日,影像领域厂商柯尼卡美能达(KONICA MINOLTA)在北京正式发布了由柯尼卡美能达自主研发的最新打印技术—Emperon (中文名称“印宝珑”)。与此同时,柯尼卡美能达还发布了三款最新的打印机产品,其中两款是首次应用Emperon技术的彩色激光打印机—MC2450和MC5450,而另一款产品PP1380MF则是一款激光多功能一体机。此次推出的“印宝珑”控制器技术由柯尼卡美能
期刊
虽然很多人对Windows内置的资源管理器不屑一顾,但事实上它仍然是绝大多数用户首选的文件管理工具。今天,笔者就向大家介绍几款可以让资源管理器的功能得到一定增强的小软件。    让资源管理器  实现断点复制      通常,资源管理器在复制或移动文件时的速度并不快,而且不支持断点复制,一旦容量比较大的文件由于某些原因意外中断,就只能重头再来。  软件名称:KillCopy  最新版本:2.82  
期刊
局域网中IP地址被别人不小心占用的现象时有发生,严重影响了局域网的管理和维护效率;为了提高局域网管理和维护效率,有必要对随意修改IP地址的行为进行限制。为此,本文为大家提供了几则保护IP地址的新鲜招法。      停用网络连接服务法    大家知道,如果限制用户修改TCP/IP参数的话,那么这些用户即使修改IP地址,也无法使用新的IP地址,这样就失去了盗用IP的意义。而要成功限制用户随意修改TCP
期刊
计算机的智能化既给我们带来了极大的方便,也埋下了泄密的导火索,一旦别人使用或入侵你的计算机,通过简单的查找就会发现大量信息,如已被你删除的收到和发出的邮件、访问过的Internet网站、在网页表单中输入的数据、密码及个人信息,甚至在文档中使用过的词汇等。因此,掌握一些保密技巧,保护隐私不受侵扰就显得尤为重要。下面的一些小技巧将助你营造一个更加安全的操作环境。    关闭显示最近  所用文件功能  
期刊
Office 2003推出一段时间了,针对它的SP1也已经出台,同时还有不少更新。那我们是不是需要在重新安装系统后按部就班地安装Office 2003,然后更新SP1,接着再一个个地打上补丁,最后才开始使用呢?其实只要几个步骤,就可以节省很多时间。    第一步:自动填写  序列号    将Office 2003安装光盘上的所有文件都拷贝到一个文件夹下,如H:\soft\Office\Office
期刊
版本号:3.0  界面语言:简体中文  软件类别:图形图像  软件大小:2.6MB  授权方式:共享软件  软件评级:★★★      软件点评:   使用“数据制卡排版精灵”这款工具,图章制作将变得非常简单。下载安装完成后,在桌面上会有两个快捷方式,一个是注册版,一个是试用版,点击“试用版”,再点击“新建文件”按钮,首先会弹出页面设置窗口,这是制作卡片时用的,直接点击“确定”来到软件主界面,点击
期刊
在黑客众多的入侵手段中,通过IPC$入侵已成为目前比较常见的一种方式,其攻击步骤甚至可以说已经成为经典的入侵模式,许多朋友非常想搞清楚这是怎么回事。知己知彼,方能百战不殆,基于这种考虑,我们来介绍一下这种入侵方式的基础知识。  IPC是Internet Process Connection的缩写,也就是远程网络连接。它是Windows NT/2000/XP特有的一项功能,就是在两个计算机进程之间建
期刊
包括SONY、微软和任天堂在内的几大游戏厂商的下一代游戏机在美国最大的游戏展上初露端倪,他们许诺新一代的产品将有巨大的性能提升,而高清晰游戏也是其重要卖点之一。每一款产品都支持无线网络、Internet浏览、DVD播放和在线多人游戏。  SONY Playstation 3看起来是E3 2005(Electronics Entertainment Expo 2005)上性能最强大的游戏机,它使用了
期刊
很难想象,距离AMD公司推出64位Opteron处理器(几个月之后Athlon 64也问世了)已经过去了四年之久。AMD公司的成就并不仅仅是开发出一个新的64位桌面处理器,它还很好地继承了现有的x86架构,这样一来就可以顺畅地运行现有的32位代码,同时也能支持64位操作系统。  既然这些处理器运行32位代码时也有很好的性能,又可以支持将来的64位代码,人们当然乐于选择它们,这也正是Athlon 6
期刊
前言    当今,在移动通讯与手持设备界,3G绝对算的上是出现频率最高的一个词。第3代移动通讯网络的出现,不仅为手持设备厂商及网络服务提供商展现了更为宽阔的平台,也为用户开拓了一个无限可能的视界。  2006年2月13日-16日,本年度3GSM世界大会在西班牙巴塞罗纳举行。3GSM展会一直被公认为全球手持设备行业最重要的展会活动之一,由于手持设备的受众面非常广大,而今年又正值3G技术蓬勃发展的一年
期刊