回望走过的时间脚印,且看过去12年间PC DIY的经典时刻

2006年是我们超能网创立的首年,12年的时间走过来会发现对于日月如梭的电脑行业来说已经是非常长的时间,12年前的行业面貌跟现在相比差距实在太大,但是反过来说,正是这12年间一次次大变革,奠定我们现在PC DIY行业内的规格、惯例,所以这次我们就来简单回顾看看过去这12年的回顾。在早些时候我们已经针对我站的12周年做过一次特别的装机,就是采用12年前的配置来看看在今天能有多少游戏性能,而这次我们会更加传统、更加板书一些,通过回忆的方式来看看过去的这12年间有哪些值得纪念、值得回忆的重要时刻,以下就是我们编辑们找出来为大家分享的经典时刻,不过限于时间、关注点,跟你想看的或许并不完全一致,欢迎大家在评论区讲述你在过去12年印象最深刻的时刻。

苹果换“芯”,不再使用PowerPC,而是熟悉的Intel x86

首先2006年初的大事就是当时苹果开始实施更换Mac电脑处理器的架构。其实在2005年6月份的WWDC 2005,乔布斯就已经宣布将旗下Mac电脑处理器从原本的PowerPC架构迁移至我们熟悉的Intel x86平台,结束当时众多关于苹果是否换“心”的猜测。而这已经是苹果第三次更改CPU架构,此前的首次是Apple II,将8位的6502处理器更换成来自摩托的68K,而第二次则是放弃68K、使用PowerPC,而苹果也成为少数更换处理器平台架构却依然能保持成功的企业。

最初苹果表示预计平台迁移会在当年的6月份开始,但实际动作比预计快很多,在当年的1月份就已经推出使用Intel处理器的15英寸MacBook Pro、iMac,均配备Intel Core Duo。同年八月份,苹果在WWDC大会宣布将推出配备Intel Xeon 5100系列处理器,意味着“迁移完成”,而3年后的2009年,苹果推出Mac OS X 10.6 Snow Leopard,这是首款不支持PowerPC的Mac OS X操作系统。

总的来说,迁移架构对于苹果自己来说不仅是一次突破,这也让Mac价格的下降甚至是后来玩家们的“黑苹果”留下了足够宽阔的道路。

AMD推出Socket AM2接口

在2006年5月份之前,此前AMD在中高端产品和入门级产品上采用的是两种接口,前者是Socket 939,后者是Socket 754,这给用户的升级带来了很多的不便。随后AMD推出Socket AM2接口,支持双通道DDR2 SDRAM,内含940个针脚。首批使用AM2接口的处理器包括单核Athlon 64、双核的Athlon 64 X2、Atnlon 64 FX、Opteron 1200,AM2后来也成为主流接口。

而更重要的是,伴随着socket AM2接口登场的还有AMD的双核处理器,新登场的双核处理器极大地打击了当时英特尔双核心产品的气焰,AMD甚至一度处于领跑状态,旗下产品成为DIY玩家的装机首选,这个状况直到英特尔发布酷睿2处理器的时候才得到改变。

NVIDIA推出nForce 500、600系列芯片组

在我们现在的印象当中,AMD、NVIDIA都是显卡阵营的主要竞争对手,但是在12年前,他们在处理器领域可是合作伙伴,那是NVIDIA还在推出自己的主板芯片组。首先是在2006年的3月份,NVIDIA推出nForce 500系列芯片组,就支持前面的AMD Socket AM2接口,后面还支持Intel Core 2 Duo处理器。

随后在同年的11月份,NVIDIA推出nForce 600系列芯片组,在命名上通过nFotce 680a/i来标注支持的平台,比如说nForce 680a SLI、nForce 680i Sli,我们就有一张高端定位的nForce 680i Sli主板,内存支持到DDR2-1200MHz,当时不少nForce主板的规格都很高、甚至可以说领先,而且凭借SLI技术(最初的SLI技术来源于被NVIDIA收购的3dfx)的支持也获得了很多玩家的喜爱。只是与自家GeForce显卡的命运不同,随着AMD和英特尔逐步握紧将主板芯片的控制权,nForce主板最终还是黯然退场,但是在2006年,nForce 5系列与6系列主板无疑是当时市场上最为之璀璨的星星。

Intel发布酷睿2处理器

我们前面也说AMD的双核处理器在到来时非常成功,但是在同年的7月27日,Intel推出跨时代的、非常值得纪念的酷睿2(Core 2)架构处理器,采用全新的Core微架构,可以说目前我们使用的Core处理器都是他的徒子徒孙。Core微架构一举代替2000年的NetBurst架构、2003年Pentium M架构,开始的时候Intel Core架构还叫做“Intel`s Next Generation Microarchitecture”,非常酷炫。

新发布的Core 2处理器分为Solo(单核)、Duo(双核)、Quad(四核)、Core 2 Extreme(至尊版)不同型号,既保持高性能还能兼顾低功耗,所以是非常成功的微架构,因此一直改进到今天。新的酷睿2架构一举结束AMD在双核处理器市场上的领先状态,也拉开了酷睿系列处理器在CPU市场上的领跑的序幕,一举压制AMD的双核处理器产品,并一直领跑至今。

AMD正式收购ATI

Fusion!

我们平常都会调侃AMD是非常伟大的企业,他是如今市面仅有的图形业务可以竞争NVIDIA、处理器业务可以竞争Intel的公司,但你知道AMD是什么时候收购ATI而获得图形技术专利的吗?其实就是12年前的2006年7月24日8:00,AMD正式宣布以42亿美元现金加5700万普通股的形式全面收购AIT的普通股票,最终以54亿美元的总额完成收购案。为了完成这次收购,AMD向摩根斯坦利借款25亿美元,还经历了加拿大、德国、美国等国家的反垄断调查,最终在2006年底前完成了收购案。

完成整合之后,AMD对ATI旗下产品进行了重新整理,首先将其主板芯片归入自己门下,显卡产品则保留ATI和Radeon品牌,从而成为了PC硬件领域中,唯一同时拥有CPU、独立显卡GPU和主板芯片三大类产品的厂商。而在2010年底,AMD宣布放弃ATI品牌,自此ATI彻底告别市场,玩家们看到的就只有AMD的CPU、GPU和主板芯片了,不过要注意,虽然AMD是在2006年收购ATI的,但是一直将后者作为自己的图形业务子品牌,到2010年8月份的时候,直到发布Radeon HD 6000系列显卡的时候才宣布放弃ATI品牌。

AMD在收购完成随后推出Radeon HD 2000系列显卡,这里肯定会有人想说传说中的HD 2900 XTX,不过并没有很好解决能耗、热量的问题,不过在2009年,冲击DirectX 11规范的Radeon HD 5870显卡重回光明,并在随后的2010年独显出货量取代NVIDIA成为世界第一。

NVIDIA推出GeForce 8/G80图形显示核心

我们现在都知道显卡最基本的计算单元是流处理器,但你知道是在那张显卡开始的吗?没错,就是首张支持DirectX 10规范的GeForce 8800 GTX,属于GeForce 8系列,图形代号G80,跟以往的架构有非常的不同,GeForce 8系列显卡开始使用统一渲染架构(Shader Model 4.0),开始用流处理器来作为基本组成。在当时,G80图形核心代表着最新的技术、最新的规范,当然还有GeForce 8800 GTX超高的售价。

其实在首发之前,G80核心曾经因为自身Bug的问题一度召回,但得益于NVIDIA控制有方,此次事件未对G80核心的发布造成太大影响,多家厂商都得以同步上架,不过为了保证供货和产品的良品率,初期的产品是不允许超频的,直到一个月之后才慢慢解禁。

汉芯倒下,龙芯站起

在龙芯处理器之前,曾经有一款国产芯片同样被寄予厚望,认为是国产芯片乃至国产CPU的希望,那就是汉芯。但可惜的是,在2006年初,被冠上各种头衔的汉芯被曝疑似造假,随后在5月16日,上海交大公布了“汉芯”事件调查结果,确认“汉芯”一号、二号、三号、四号全部造假,至此 这场沸沸扬扬的学术官司画上了句号。

根据调查结果显示,被寄予厚望的“汉芯”实际上只是一颗经过打磨的外国产芯片,但是在在层层运作下,居然被渲染为“由国内设计、国内生产、国内封装、国内测试”的国产高科技产品, 结果令人悲哀的同时,也不禁让人对国产CPU的前途表示担忧。

不过虽然“汉芯”倒下了,但是“龙芯”却站了起来,重新顶起了国产CPU的天空。2006年3月,龙芯2号增强型处理器CZ70流片成功,同年10月中法两国在北京签署了关于中国科学院与意法半导体公司关于龙芯处理器的战略合作协议,随后龙芯发展顺利,虽然从各个方面来说都与AMD和英特尔都有较大差距,但总归是让国人看到了希望。

华硕与技嘉成立合资公司

在我们的印象中,华硕和技嘉一直以来都是竞争激烈的两家台系厂商,但是在2006年为了对抗鸿海在市场上的咄咄逼人,华硕与技嘉在2006年8月8日于台湾证交所达成了一项重大协议 ,技嘉拆分出自有品牌主板显卡部门,与华硕合资成立新的公司,新公司名为“技嘉联合”,资本额为80亿新台币,其中华硕持股49%,技嘉持股51%,将于2007年1月开始运作。

然而让人大跌眼镜的是,这次合资最终陷入了无限期搁浅之中,技嘉联合虽然成立但并没有发挥出去应有的作用。最终在2008年10月1日技嘉联合重新并入其母公司技嘉,成为后者的全资子公司。

DirectX 10世代末竞争激烈的显卡市场

十多年前那段时间显卡发布的速度是非常频繁的,以2008年为例来说,首先是1月份的首周,NVIDIA发布GeForce 8800GS显卡,它原本是仅面向OEM市场的产品,受到ATI Radeon HD 3850的威胁被迫投放到消费级市场,是G92家族中规格最低的一款,它只是临时缓解了威胁,随后5月份它改名为GeForce 9600GSO继续卖。

同样是在1月份,ATI在月底的时候发布Radeon HD 3870 X2显卡,将两颗RV670 GPU集成在一块PCB上,其实就相当于两块HD 3870组CrossFire,它的推出让ATI夺回了单卡性能王座。其实单卡双芯显卡很早就有的,比如说在1999年底,ATI就曾发布过双Rage 128 Pro芯片的显卡:Rage Fury MAXX,中文叫做“曙光女神”,这是来自美国空军秘密项目的名字,ATI希望它可以跟GeForce 256进行对抗,但是市场表现并不好。

转眼二月份,NVIDIA正式发布GeForce 9600GT显卡,这是首款9系列显卡,也是NVIDIA真正用来对付HD 3850的真正武器,它以更好的每瓦性能、每元性能广受赞誉,但随后外媒称GeForce 9600 GT隐蔽地通过提升PCI-E频率来提高GPU核心频率,从而达到提高性能的目的。而后来通过我站的测试,发现GeForce 9600GT并不能说在NVIDIA主板表现更好,核心频率、PCI-E频率同样并非1:1线性对应,所以可以认为9600GT并没有“作弊”。而随后还不到一个月,NVIDIA发布GeForce 9800GX2显卡,是NVIDIA第二代双GPU显卡,是一个三明治结构,它的到来让NVIDIA重回性能最高点。

而就在同一天,NVIDIA还发布790i芯片组,有增强版的790i Ultra SLI与标准版的790i SLI,两者的区别在于前者支持DDR3-2000,后者只支持DDR3-1333,与Intel的X48比起来790i提供了多达60条PCI-E通道,可支持3-Way SLI,不过nForce 7系列的芯片组已经是最后的绝唱。

而很快在愚人节的4月1日,NVIDIA发布GeForce 9600GTX,其实它就是G92版本的8800GTS 512GB的超频版并加入3-way SLI的支持,它是G92大军改名的一个起点,随后的9800GT和9600GSO都是各种G92核心显卡改名而来的,随后还有采用55nm的改良版G92核心的9800GTX+、9800GT、GTS 250、GTS 240等等。

在6月份,NVIDIA GeForce GTX 280、GTX 260发布,巨大的G200核心因为复杂的工艺很快就被同月发布的Radeon HD 4870打脸,后者采用RV770核心,首款支持DX10.1的核心,首款采用GDDR5显存的显卡,同时发布的HD 4850用的是GDDR3显存,而随后在夏天的8月份,双芯卡Radeon HD 4870*2/HD 4850*2被发布,前者的性能成功压倒GTX 280。

处理器、主板方面,首先是在年初的1月份,Intel发布X48芯片组,是由是由x48北桥加ICH9南桥组成,然而它跟X38芯片组差别不大,只是前端总线支持从1333MHz提升到了1600MHz,而且由于x38库存关系这次x48只是纸面发布,发货推迟到3月份。而主流产品方面,当年夏天的5月份,Intel发布P45芯片组,由P45北桥加ICH10R南桥组成,取代P35成为市场主流。

而下半年的市场要好看很多,首先是入门级神UE5200发布,Intel 45nm处理器进入入门级市场,另外入门级四核Q8200也发布,随后的11月,使用45nm制程的IntelNehalem处理器发布,Core i7登上历史舞台,同时X58主板发布,LGA 1366接口出现,自此多线程技术回归、睿频技术同样开始走进千家万户。同月AMD推出首款45nm处理器上海,它是Opteron服务器处理器。很快进入2009年的1月份,AMD正式发布45nm制程的Phenom II,首发处理器包括Phenom II X4 920/940。

新年的AMD率先开始发起攻势,3月份的时候先推出首款采用40nm工艺的图形处理器:RV740,同时还有ATI Mobility Radeon HD 4860、ATI Mobiliity Radeon HD 4830两款移动显卡。随后的四月份,,AMD发布Radeon HD 4890,采用RV790核心,规格与HD 4870一样,但频率更高。不过就在同一天,NVIDIA发布GTX 275,它采用的是GTX 285的流处理器+GTX 260的显存位宽,对手是HD 4790。

进入九月份,看上去像是新学年的开始,Intel这时发布Lynnfield处理器,包括Core i7-870、Core i7-860、Core i5-750三款,这标志着Core i5首次出现,并且意味着主流平台进入LGA 1156时代,同时P57/P55/H57/H55主板发布,LGA 775插槽退守入门市场。同样是九月份,AMD发布首款DX11显卡Radeon HD 5800系列,有HD5850以及HD5870两款,夺回单卡性能王座,开启DX11时代。并在国庆之后的10月份发布面向主流市场的DX11显卡,Radeon HD 5700系列,有HD 5770和HD 5750两款,随后又在11月份发布单卡双芯的Radeon HD 5970显卡,HD 5870双核版本,夺回双核显卡性能皇冠。

首款DirectX 11入门级显卡出炉

我们都知道首款DirectX 11显卡是来自AMD/ATI的Radeon HD 5870,正式敲开新时代的大门,彼时是在2009年9月份,而随后不久在2010年的元月,首款入门级别的DirectX 11显卡Radeon HD 5670终于到来,采用台积电全新40nm工艺,核心虽然大幅缩减到只有400流处理器,但是拥有1GB显存其实已经足够。作为入门级显卡,它无需外接供电,满载功耗仅为61W。

Radeon HD 5670的竞争对手是GeForce GT240,性能还是可以领先的,得益于40nm新工艺,HD5670的核心温度并不高,待机/满载时GPU核心温度为32/54℃,满载时产生的噪音也并不大;在功耗方面表现出色,在与同为40nm核心工艺的GT240比较下,待机及满载功耗仅略高于后者,两者在功耗方面是旗鼓相当的。

转身之前的火热:Fermi架构的GTX 480、GTX 580

虽然我们现在都知道自从Kepler架构开始,NVIDIA在能耗比方面是越来越有优势,在Maxwell架构的时候取得突破,而在目前的Pascal架构当中已经取得难以逆转的巨大优势,但事实上在之前的费米架构时期,因为大核心战略而遭到功耗、温度折磨的其实是NVIDIA,我们就来从GeForce 400系列开始说起。

费米架构依然是在高端的GTX 480开始推出,彼时还是2010年的3月份,费米架构继承过去G80架构的通用计算GPU架构,既可以做图形渲染,还可以做并行运算,而费米架构继续使用双架构(CUDA计算、图形),使用第三代SM单元设计,每组SM单元包含32 CUDA,而这么做的代价是高度复杂、庞大的架构,晶体管数量达到30亿,这在当时是相当夸张,甚至是空前的水平,甚至要知道的是,在八年前的当时,费米架构已经在标准上开始支持光线追踪,此外平滑粒子流体力学模拟算法同样是很高深的技术。但这么做的代价是529mm2的超大核心面积,另外我们都知道完整规格的应该是512SP,但事实上GTX 480仅仅开启其中的480SP。

然而GTX 480的温度、功耗表现就真的不容乐观,封箱测试的待机温度就有42℃,Furmark烤鸡五分钟温度甚至会达到93℃,话说你上次看到负载温度会超过90℃的显卡是什么呢?而功耗更加夸张,整机功耗已经达到474W。

而在经过8个月的等待后,完整规格的费米架构旗舰GTX 580直到当年的11月份才正式公布,核心面积、晶体管数量与之前的GTX 480保持一致,但是最后还是解锁完整的512SP。完整规格的GTX 580负载功耗降低40W左右,而温度终于不会再超过93℃,83℃的温度终于像是正常的高端显卡应有的样子。但是性能则是惊喜:3DMark跑分领先GTX 480超过20%。

充满新架构、新梦想的Radeon HD 6970

同样是2010年年底推出的Radeon HD 6970是当时那三年AMD首次针对GPU架构作出重要调整的产品,全新的Cayman核心使用的是更加高效的VLIW(超长指令字)4架构,意即VLIW处理器当中的5个1D ALU单元被精简到4个,因此也被称为VLIW4处理器。并且还加入更加接触的电源惯例功能:Power Tune特性。

Radeon HD 6970、6950使用的是小核心,但是满载功耗并没有比GTX 480低很多,而且满载温度也会达到80℃,而且虽然大家当时希望看到的是它能击败GTX 580,但是两者之间的性能差距是明显的(连价格都有1000元的差距),它真正的对手应该是GTX 570。合理的评价应该是作为新架构,成功的试金石。

使用3D Tri-Gate工艺的Intel Ivy Bridge架构

那段年月必须要谈到是就是Intel在新的22nm Ivy Bridge架构使用全新的,甚至可以说是革命性工艺:3D Tri-Gate,或者可以说3D FinFET工艺,这时在45nm使用HKMG工艺后变革最大的改变,我们都知道越是栅极宽度收窄的工艺,越是要注意漏电率,此前的HKMG工艺正式为应对此问题,而新的3D Tri-Gate工艺则是通过类似于立体铺设晶体管,仿佛是在晶片上面铺设摩天大楼。

Intel Ivy Bridge是世界上最早成功实现量产商用的3D Tri-Gate工艺,将原本横向排列的方式改为横纵兼有的铺设方式,因此晶体管数量提升非常多,可以说摩尔定理的长寿,3D Tri-Gate工艺是有功劳的。

新架构新纪元,由南方群岛、开普勒架构说开去

如果说2012年的显卡,我们绝对需要从前一年的年底开始说起,因为当时采用新制程的Radeon HD 7970的横空出世,还有首批使用Graphics Core Next架构南方群岛家族的从天而降,在那时都是跨时代的影响,首先要说GCN架构的意义,我们需要介绍传统的显卡渲染方式,后者简单来说采用的是管线架构,而不是目前现在统一渲染架构当中的流处理器架构。在微软推出革命性的DirectX 10规范前,我们常见的是像素着色器(Pixel)、顶点着色器(Vertex Shader)是主要运算单元。统一流处理器渲染架构后,NVIDIA、ATI各自根据自身情况改进自身的渲染架构,前者的G80,后者的G600,都是各自为统一渲染架构推出的,但是在28nm新制程面前,两者都使用全新的架构,而这些设计,在今天还能看到当年思路的影响。

GCN架构当中,流处理器的基本组成方式不再是过往的单指令多数据(SIMD)阵列,而是全新的“计算单元(Compute Unit,CU),直到现在它还是目前GCN、NCU的基本组成形式,但每组计算单元容纳的流处理器数量(64)并没有发生改变,还是跟以前的SIMD保持一致。虽然这么说显得非常传统,但事实上GCN架构当中的典型代表:Radeon HD 7970,还是首款支持PCI-E 3.0、DirectX 11.1,并且是首款使用台积电28nm HP工艺的显卡,历史给与它的纪念意义溢于言表,而为大多硬件玩家津津乐道的是,虽然GCN架构的服役时间比较长,但是在其中能看到诸多前瞻性的表现,Mantle、DirectX 12、Vulkan,这些更擅长通过挖掘底层而优化性能的接口,都在AMD GCN架构当中拥有更好的表现。

因为率先使用新制程、新架构,Radeon HD 7970在完全的老前辈GeForce GTX 580面前展示出一往无前的战斗力,但是这段跨重量级的胜利并没有持续多长时间,因为NVIDIA在随后紧跟着的次年3月份正式推出Kepler架构显卡,其中旗舰担当的GeForce GTX 680不仅在那时,在后来的相当长的时间都跟前文的Radeon HD 7970互相掀起比前年的GeForce GTX 1060、Radeon RX 480更激烈、更针锋相对的竞争,后来甚至还推出官方超频的Radeon HD 7970GE,可以说在当时的行业内,两者就仿佛是魔术师约翰逊、大鸟伯德。

事实上无论你站在什么角度,你都完全应该在使用新制程的GCN、Kepler架构开始看待过去的显卡演进,原因不只是当时两者的竞争的结果直接投射到今天,两者选择的技术方向、竞争当中所处的局面都可以说由那时开始埋下种子。比如说两者在能效比方面完全是颠倒位置,NVIDIA在能效比方面的优势自Kepler架构开始越来越坚实,小核心、大核心显卡的双线作战逐年占优,而AMD在高端显卡市场竞争力越来越弱的基本面其实也是在GCN架构发布后缺乏足够的杀手级产品有关,就近年来说,原本Radeon RX 470、570、Vega 56都是很有竞争力的产品,但是并没有引起足够的影响力,当然有说法是当时AMD内部急需抽调资源保证Ryzen处理器的进度,站在大局观来说这并没有错,但是真实性就见仁见智。

我们还是说说Kepler架构,这是NVIDIA在同样使用台积电28nm支撑后推出的全新微架构,同样以旗舰GeForce GTX 680为例,首先是能效比大幅提高,一句摘下能耗大户的帽子,而且在日后的过程中能耗比是越来越优秀的,其次就是频率,因为首次使用GPU Boost技术,是首张频率突破1GHz的显卡,但实际上不加压可以很轻易跑到1.2GHz以上的频率。

作为制程跨越的典型,新架构的重要意义、同时也是基本规律就是可以在更小面积的芯片上集成数量更多的晶体管,因此流处理器会更多、频率会更高,但是功耗和温度都会更低。从北方群岛到南方群岛,晶体管数量从26.4亿增长到43亿,但是核心面积从389平方毫米缩小到365毫米,频率小幅提高,不过这里典型功耗同样是小幅提高的。

然而由于GeForce GTX 580是不折不扣的大核心显卡,所以到精巧强悍的Kepler的架构,可以用改头换面来新形容:核心面积从520平方毫米降低到294平方毫米,但是晶体管数量还从原本的30亿提高到35亿,流处理器更加明显:512SP翻两番到1536SP,是自GeForce 200系列以来面积最小、功耗最低的顶级游戏卡,可以说就是从GTX 680开始,奠定NVIDIA高能低耗的基础。

冲击高频的新面貌:GPU Boost到底是什么

我们现在早已经习惯处理器、显卡在游戏当中的频率会高过官方标称的频率,尤其是两年前的Pascal架构显卡,标称在1.6GHz左右的显卡但是在游戏当中很轻松可以自动超频到2GHz,其实这些都是官方在半导体设计当中,尽可能压榨芯片性能的常见手段,英特尔起步的很早,在十年前发布Nehalem架构的Core处理器时就已经推出初代的Turbo Boost 1.0,而英特尔则是在2012年,在首款频率超过1GHz的显卡GeForce GTX 680当中加入GPU Boost 1.0,让GPU在不同的情况当中实现幅度不同的自动超频。

第一代的GPU Boost 1.0可以说是雏形,主要是使用在GeForce 600系列显卡当中,超频的依据是功耗,如果功耗没有达到规定的上限就会以固定的频率为步进,逐步逐步超频,所谓“功耗墙”的说法也是这时候开始流行的。而在随后使用Maxwell架构的GeForce 700系列显卡当中,影响因素新增温度,只要温度没有达到极限,便能往上超频,从而避免功耗尚有余地,但是核心已经温度极限的边缘。而在最新的Pascal架构当中,频率和温度不再机械线性相关,而是可以无线接近理论的最高频率,因为GPU Boost 3.0当中超频的幅度相当高。

跳过工艺节点的代价:火山岛、海盗岛还有麦克斯韦

我们都知道2011年年底发售的Radeon HD 7970、2012年春天发布的GeForce GTX 680是两家显卡厂商开始使用28nm工艺的起点,而因为20nm工艺节点的量产时间、成本问题,大家都不约而同选择跳过20nm节点,并在2016年分别选择来自三星的14nm FinFET、台积电的16nm FinFET,所以我们的GeForce 700、Radeon R9 200、R9 300系列显卡都依然是采用28nm工艺,但事实上跟现在清晰明确的显卡序列相比,当时的市场要混乱很多,旧架构、旧制程的马甲充斥市场,而现在即使是GeForce GT 1030、Raden RX 540,都全部是最新的Pascal、GCN 4.0(Polaris)架构,制程工艺也没有缺斤少两,所以这里帮助大家回忆过去的GeForce 600-GeForce 900、Radeon 200-300系列显卡。

NVIDIA这边的情况比较简单,首先在GeForce 600系列显卡当中,入门级产品主要是费米架构的马甲,但是在后期存在相当多的变体,比如说GeForce GT 630,先期的费米架构就存在DDR3、GDDR5两种变体,后期还有先进的Kepler架构但依然搭配DDR3显存的变体,总的来说自GeForce GTX 650显卡向上全部是28nm、Kepler架构,旗舰是GTX 680,不过在2012年年中还有推出GTX 680 Mac Edition,差不多时候还是双芯的GTX 690。

随后2013年的GeForce 700系列显卡,旗舰显卡、高端显卡其实是先上市的,GTX 780、GTX 780 Ti、GTX Titan其实全部是血统一致的GK110大核心产物,规格当然一往无前,但是架构都是Kepler的。真正使用Maxwell 1.0架构的显卡其实是从2014年2月份的GeForce GTX 750 Ti开始的,只有GTX 745、GTX 750、GTX 750 Ti区区这三张显卡是真正的Maxwell架构产品,其他都是来自Kepler,最低端的GT 705甚至还是GF119核心:40nm工艺,Fermi架构。一言以蔽之,GeForce 700系列显卡是高端、高端马甲(GTX 770/760)现在2013年上市,真正的Maxwell架构是在次年的2014年春季占领千元主流市场,BTW,这两年的GK107中低端核心各种马甲相当多。

而到2014年9月份的时候,新的Maxwell 2.0架构随着GeForce 900系列出炉,全系列只有GTX 950——GTX 980 Ti共五张显卡(如果你不算GeForce GTX Titan X的话),全部搭载新架构没有马甲。这次领头的是旗舰GeForce GTX 980、GTX 970,它们的性能直到今天依然很有竞争力,同时如果说Kepler架构开始引领能效比的优势,那么Maxwell架构则完全举起能效比的大旗,奠定高效的优势。

AMD这边的情况则稍显复杂,我们都知道GCN 1.0架构是在南方群岛家族的HD 7000系列显卡当中出现的,但是其中马甲情况完全不会少,事实上自Radeon HD 7730显卡往下全部都是32nm/40nm的马甲,往上数才是我们的GCN 1.0架构。而后来的GCN 2.0其实最早实现的是Radeon HD 7790,而最早的GCN 3.0架构的则是R9 285。

鹤立鸡群的巨人:NVIDIA GTX Titan系列显卡

其实在GeForce GTX 680发售前,我们在知道其核心代号为GK104-400的时候,就已经知道这是主要针对游戏玩家的小核心,真正的最高端大核心GK110还躲藏在黑暗之中,因此在2012年的大部分我们都在讨论GeForce GTX 680、Radeon HD 7970到底孰强孰弱,但是在进入2013年的几乎第一时间,NVIDIA公布拥有超算血统的真正的超级旗舰:GeForce GTX Titan的时候,用当时的话来说,叫做“算了吧,Radeon HD 7970GE就算拿毒药超到冒烟都没用”。

作为当时大核心显卡的最典型代表,或者说唯一代表,GeForce GTX Titan是开普勒家族真正的顶峰存在,跟前面的GeForce GTX 680相比,嘿嘿……晶体管数量翻倍还多达到71亿,流处理器数量提高75%,达到2688SP,并且率先支持GPU Boost,跟当时上一代的旗舰相比,能非常直观感受到性能的鸿沟,根据后来的测试,GeForce GTX Titan性能领先原旗舰GTX 680超过45%,用现在的话说是次世代的显卡,影响力已经达到独立作为品牌的程度,而事实上后来其名称前的“GeForce”已经被去掉,“Titan”确实成为独立的系列品牌,不过售价还达到很可怕的7999元。

其实完整规格的GK110核心是初代的GeForce GTX Titan、Tesla K20X都错过的,真正完整的规格是15组SMX单元,而上述两张显卡的规格都是只开启14组,而2013年上半年真正的旗舰:GeForce GTX 780,则是继续屏蔽流处理器的产物,屏蔽3组SMX单元后,GTX 780的售价依然远远超过已经在当时降到四千元以下的GeForce GTX 680、Radeon HD 7970,达到4799元,当然跟特别的GeForce GTX Titan相比这是足够有性价比的,但是当年的玩家应该还记得,在不久后的2013年的夏天,准确来说是暑假旗舰,Radeon HD 7970显卡价格突然崩盘,2000元出头就可以买到,而旗舰级别的蓝宝石毒药、华硕Matrix,都是只要2500-2700元,相当有性价比,小编的Radeon HD 7970GE就是那时买的。

到2013年的下半年,AMD正式发布改头换面的新系列旗舰:R9 290X,性能相当强劲,已经可以和GeForce GTX Titan平起平坐,但就在新的夏威夷系列显卡发布两周后,NVIDIA发布拥有完整GK110核心的旗舰显卡GeForce GTX 780 Ti。这里要注意,虽然GeForce GTX 780 Ti的规格要更加完整,但是售价跟定位都要低于GeForce GTX Titan,出世的时候完全是横空出世的怪物,此后在超过半年的时间里没有遇到任何挑战,没有降价,最后安详退场。事实上就算是现在,规格完整的GeForce GTX 780 Ti的二手显卡售价都要低于不完整的GeForce GTX Titan。

五个月后,NVIDIA推出基于完整规格GTX 780 Ti的完全体泰坦:GeForce GTX Titan Black,不过当时的还并不是全黑的导流罩,而是简单将雕刻铭文“Titan”染成黑色。GTX Titan Black的频率小幅提高,但还是没有超过900MHz,售价依然是铁打的7999元。而如果你觉得这张显卡还是比较“2013”,不够“2014”的话,NVIDIA表示请接下双倍的GTX Titan Z,没错,这次是类似于GTX 690,将两颗完整规格的GK110-430-B1核心放在一起,当然这需要降频,但是售价从单芯的999美元提高到2999美元。不过这时Kepler架构已经面试近两年,全新的Maxwell架构已经在路上。

如果说前面GeForce GTX Titan Black Edition只是简单将完整规格的GK110核心的初代泰坦的铭文换成黑色,那么随后在GTC 2015发布的这次Titan X你完全可以认为是“Pure Black Edition”,至少在小编我的心目当中这是巨人家族当中颜值最高的一款:通体黑色磨砂质感,只有铭文和涡轮散热器边缘时银色,非常耀眼。

这张Titan X是基于完整Maxwell架构的产品(GM200核心),完整拥有3072SP,显存从过去的6GB直接翻倍到12GB GDDR5,规格完全无从挑剔,性能强于当时的GeForce GTX 980 Ti,放在今天依然可以跟公版的GeForce GTX 1070硬碰硬。

但是这里要尤其提醒大家,这张基于Maxwell架构的GeForce GTX Titan X的命名其实有不小的混淆作用,因为我们都知道在发布GeForce GTX Titan X的第二年,NVIDIA开始推进到Pascal架构,制程、架构都有很(哔~),这固然是很好的,但是搭载GP102核心的新巨人依然叫做Titan X,所以就容易有读者混淆两种不同架构的显卡。对于NVIDIA官方的定义,后者其实准确来说叫做“NVIDIA Titan X(Pasca)”,没错,首先就时已经去除“GeForce GTX”的前缀,其次就是括号当中标注的架构。虽然命名高度接近,但使用不完整Pascal架构的NVIDIA Titan X的导流罩外形已经抛弃过去稍显呆板的直来直往的风格,采用新一代钻石切割风格。

NVIDIA Titan X(Pascal)的规格并不完整,根据GP102核心架构图很容易可以猜到完整的应该是包含30组SM单元,然而NVIDIA Titan X“仅仅“拥有其中的28组,最后2组是被屏蔽的。即使是这样,改头换面的Titan X的海外售价是直接在999美元的价位涨价到1199美元,而国内售价也从原本的7999元直接涨价到9499元,“万元卡”不再是笑谈。

NVIDIA发布规格不完整的NVIDIA Titan X(Pascal)是在2016年的8月份,而完整规格的Titan Xp是直到次年的4月份才悄无声息公布的,完全开启GP102核心的所有流处理器:3840SP,成为规格最强消费级Pascal架构显卡。

而巨人家族最后一位成员:Titan V,则是变化相当大的一款显卡,跟以前的Titan相比,触角完全伸向专业计算领域,距离传统游戏市场渐行渐远。命名当中的“V”意即全新的“伏打(Volta)”架构。作为一张面世在2017年12月的银河级旗舰显卡,Titan V很大程度是面向人工智能、深度计算倾斜的,标志之一就是板载张量单元(Tensor Unit),专业计算性能会达到110TFLOPS,其实这种搭载张量计算的设计在谷歌或其他有志于AI、Deep Learning领域的公司推出的设备上是常见的。

而即使不说这些跟我们游戏玩家八杆子打不着的特性,Titan V依然是代表目前最顶端的显卡:TSMC 12nm FFN工艺的领先工艺,211亿晶体管、5120SP的庞然大物。然而根据NVIDIA在未来消费级游戏显卡、专业计算卡的品牌建设方案来看,未来很有可能两条线路在架构方面或许会互相平行、独立,大家使用不同的架构,而未来的Titan或许会具有越来越明显的专业特点、计算特点,游戏DNA会越来越少。

双芯卡皇:致那些已经不在的庞然大物

时至今日,我们对于双芯显卡都已经习以为常,毕竟双芯显卡本身并不是很新颖的概念,但事实上最近若干年已经没有看到AMD、NVIDIA推出双芯显卡,而且对于CrossFire、Sli的态度同样变得越来越 暧昧,其实我们有可能以后很难看到来自 更多双芯显卡,但是在过去,通过多卡组建平台是非常常见的,我们就来简单回顾看看过去的那些双芯旗舰显卡,要知道曾几何时对比地球最强显卡的军备竞赛是非常壮观的。

距离现在最近的双芯显卡是AMD在去年发布的Radeon Pro Duo,不过这名字跟之前的Titan X都会让人混淆,因为去年6月份发布的Radeon Pro Duo实际上是基于两颗Polaris核心,就是Radeon RX 580基于的那颗,所以就是2304*2=4608SP,但是显存就比较华丽,拥有16GB*2 GDDR5显存,14nm FinFet新工艺让新的Radeon Pro Dup的典型功耗只有250W,而且供电接口“只有6+8Pin”,这对于双芯显卡来说可是很不错的。而最初发布于2016年3月份的同名Radeon Pro Duo是基于两颗完整的Fiji核心,所以是4096*2=8192SP,明显后者的性能是更强的。

然而Fiji毕竟是大核心,所以就需要更夸张的水冷一体散热器,并且配备比较极端8+8+8Pin供电接口,这是我们过去只有在R9 290X Lightning这种电老虎才能看到的,不过在巅峰性能的背后,Pro Duo(Polaris)的售价只要999美元,要比性能更强的Pro Duo(Fiji)的1499美元便宜很多,足足有50%,当然这里要还要算上两颗4GB HBM显存的良品率跟工艺成本。

而如果还要往前算的话,再之前的双芯旗舰显卡则是2014年4月份的Radeon R9 295X2,它使用两颗来源于R9 290X显卡的Hawaii核心,所以拥有2816*2=5632SP,但是因为使用水冷、风冷结合的混合散热方案,加速频率要比单卡R9 290X还要高,达到1018MHz,然而1499美元的售价只是前面的Titan Z的一半。这要特别说说,因为虽然过去的那几年当中,总的来说AMD是比较憋屈的,高性能CPU业务是完全被英特尔压制的,而高性能GPU业务在GCN架构中其实是被逐渐拉开差距的,然而R9 295X2的表现却很好,性能强,噪音、温度都控制不错,价格还支持Titan Z的一半,可以说是一场难得的漂亮仗。

Titan Z何方神圣?正是在R9 295X2发布前没多久的3月份GTC 2014发布的猛料,搭载两颗完整的GK110核心,即2880*2=5760SP,并且使用到消费级显卡当中史无前例的12GB GDDR5显存,不过价格就相当夸张,远远超过以往的999美元,直接达到2999美元,不过总的来说那几年风风光光的NVIDIA这次还是没有把握好节奏,Titan Z的性能没有超过R9 295X2,散热、噪音表现都不如对手,售价更是达到后者的两倍,在市场几乎没有掀起太多波澜,后来逐渐退让OEM市场,可以说如果没有“Titan”家族的血统,伴随更多的会是争议。

AMD R9 295X2双芯显卡确实表现不错,通过混合散热的方式,在保证性能没有因为降频而影响的同时,在散热、噪音方面都有不错的表现,算是比较成功的显卡,但是如果你往前看,看到Radeon HD 7990的表现,你或许就会理解:这完全是因为前辈HD 7990是采用三风扇风冷散热的啊,长度、厚度、重量都让它成为一张很难被普通玩家接受的显卡。

Radeon HD 7990发布于2013年的4月份,很明显采用的是两颗来自Radeon HD 7970 Tahiti GPU(这货其实是2011年年底就发布),有印象的玩家肯定还记得当年因为Radeon HD 7990的长度还诞生过不少表情包,不过HD 7990本身素质不低,散热器功夫比较过硬,热量、噪音都控制很不错。

其实公版的Radeon HD 7990是来的比较早的,非公版的双芯来的早很多,有多早?同样是双芯的GTX 690其实是在2012年的5月份就正式公布的,那时我们都以为HD 7990会在随后的6月份就到来,但公版比非公版落后很多。这方面来说GTX 690的发布其实没有比GTX 680晚到很多,规格方面很容易猜到前者就是搭载两颗GTX 680所使用的完整GK104核心,不过频率上的妥协就要比以前的GTX 590要小很多,造型跟后来的Titan Z类似,都是在导流罩中部使用单风扇散热。

这里可能会有读者表示有些非公版的名声同样非常大,比如说来自迪兰的Devil 13,它们肯定是专为双芯显卡推出的系列吧,其实这种说法不完全对,因为首款Devil 13显卡是来自2011年10月份,采用的是Radeon HD 6970核心。不过它后来确实推出过HD 7990、R9 295X2,后来在2015年的时候还推出过R9 390*2,2560*2=5120SP。

将两颗GPU铺设在电路板上,最需要解决的就是热量、功耗,还有派生的噪音问题,AMD使用过的混合散热方案其实就是成功的例子,比如说R9 295X2、Pro Duo,但是还有比较受到热量、功耗限制的产品,比如说Fermi架构的GeForce 400系列,就没有推出过双芯卡,到后来2011月3月份的GTX 590虽然尽可能完善功耗、热量优化,但是频率妥协比较明显,单卡的Core/Shader频率还有772/1544MHz,但是双卡融合后只有607/1215MHz,造型其实还是单风扇中置,但是导流罩远远没有后来的泰坦皮好看。

再往前数就是2009年9月份发布的AMD Radeon HD 5800系列,这代显卡对于AMD来说很重要,一扫过往在高端显卡市场的阴霾,而且双芯显卡推出很快,在11月份就推出由两颗HD 5870 Cypress核心融合而成的HD 5970,1600*2=3200SP,共用2GB显存,不过那个时候双芯显卡还没有如同后来那么昂贵,HD 5970在国内的官方报价是4599元,而再往前看,以前GTX 295的售价还要更低。

真的是美好绚丽的诅咒?浅谈NVIDIA GameWorks

我们现在看到显卡厂商跟游戏厂商合作已经是非常正常的事,毕竟现在开发游戏需要的成本已经比以前高出很多,尤其是比较有野心、有梦想的游戏往往身背较大的风险,万一扑街就不单单是亏本这么简单,团队解散、制作室关闭或者被收购、项目的未来被冻结都是比较常见的,所以来自显卡厂商的支持是非常重要的,经验、技术、时间规划,这些都是合作可以带来的优势,所以我们从来没有怀疑过游戏厂商、显卡厂商的合作会是坏事。

如果从名头上说,用VXGI模拟阿波罗11号是非常吸引眼球的

不过在本世代初的2014年,随着育碧的《看门狗》、《刺客信条:大革命》因为性能优化开始受到大家的质疑,GameWorks,作为新的字眼开始进入大家的眼帘。简单来说,GameWorks是NVIDIA为方便开发者、简化开发流程所提供的工具包,HBAO+、PCSS、Hairworks都是其中的技术,不过因为GameWorks本身比较封闭,甚至可以说是“黑盒”,其他开发者看不到源代码,无法针对性调试,所以很难优化,因此如果一款GameWorks游戏的硬件优化不佳,或者A、N阵营表现差太远,大家就会怀疑是GameWorks因为自身利益,为更好的画面换来的是性能。

首先被质疑的就是2014年上半年的《看门狗》,这款游戏本身就有太多质疑,比如说画面跟之前2012年首演时差太多——这点你可以说大家高估本世代家用机的性能,是无奈之举,但是后来性能优化差可没得找借口。小编还记得自己当年是使用Radeon HD 7970 GE,在当时怎么也算的上市阔少爷,但是性能表现并不好,典型的就是帧率浮动特别大,而且开车的时候帧率下降的厉害。

这当然被AMD拿来当作典型罪证质问NVIDIA,当时福布斯撰文称在部分场景R9 290X的性能甚至无法匹敌GeForce GTX 770,但后者的回复很直接:我们从来没有对AMD的硬件动过手脚,我们没有阻止过游戏在AMD平台的优化。

如果你认为事情到这里就这么结束就大错特错,因为后来的《巫师3:狂猎》还是受到相似的质疑,因为其中有使用HairWorks特效,而AMD Radeon显卡开启这技术的性能代价不小,不过NVIDIA表示不会强迫开发者做任何不道德的事,而引发质疑的关键是A卡的曲面细分性能不给力。而且据说游戏本来是使用AMD“海飞丝”特效的,换句话说就是AMD从开始就在和CD Projekt RED合作,但是在游戏发售前的没多久,大概两个月时间,NVIDIA HairWorks特效代码开始加入进游戏。

但其实事情到这里还是没有结束,因为后来的《蝙蝠侠:阿卡姆骑士》、《古墓丽影:崛起》都是使用相似的,甚至强度更猛烈的GameWorks特效,而前者确实受到非常大的性能困扰,所以知道前几年,GameWorks还是比较收到质疑的。

然而作为一直在做游戏性能测试的小编,其实发现在2016年开始,尤其是2017年到现在,其实大部分游戏,甚至可以说绝大部分游戏,都已经很少会有明显的性能偏向,以Radeon RX 580/GeForce GTX 1060 6GB、Radeon RX Vega 64/GeForce GTX 1080的性能对比为标志,其实都会发现现在已经很少有偏差太大的游戏(除《最终幻想XV》,使用Vulkan API的《德军总部》之外),这其实也是种健康的标志。

从催化剂到肾上腺素:AMD驱动升级的康庄大道

1.Catalyst Omega

平时同事们开玩笑的时候会说前AMD图形部分领导人Raja Koduri是非常主动、非常积极的大牛,AMD驱动在过去的几年当中改头换面他厥功甚伟。虽然是玩笑话,但是也可以看出AMD驱动在过去的几年变化非常大,而我们对此当然是持肯定态度的。

大家还记得以前催化剂的样子吗?

其实我们都知道的AMD在年末送上带来新功能、新特性、性能集中优化的超级驱动是一项传统,但这是在2014年的年底开始的,当时的AMD驱动名字还叫做“催化剂(Catalyst)”,界面还非常古朴。而引爆改变的就是2014年年底的Catalyst Omega 14.12,在我们后来做的关于负优化测试当中,证明这有可能是AMD历史上性能提高最明显的单次更新,同时还带来VSR虚拟超级分辨率、FreeSync帧率同步功能,价值非常高,诚意非常足。

2.Radeon Software Crimson Edition

2015年的时候比较重要的一件事就是AMD RTG部门的成立,Raja Koduri新官上任的一把火就是废掉13岁大的催化剂驱动,而开始使用面貌大革新的新界面,有古朴的文件资源管理器风格变为很有新意的毛玻璃橱窗风格,不过这次更新为性能方面带来的提升几乎没有。

3.Radeon Software Relive Edition

如果说2015年年底的“深红驱动”只是在界面作出大跨越式的改进的话,那么2016年底的ReLive驱动则可以说是在功能方面进步非常大,包括类似于NVIDIA Ansel技术的截图工具Radeon Loom,根据60 FPS帧率锁定频率的节能功能Radeon Chill,游戏内录工具Radeon ReLive、性能监控功能Wattman,同时还增加若干虚拟现实相关技术(ASW)。

4.Radeon Software Adrenalin Edition

最后就是在去年年底推出的“肾上腺素”驱动,当然也有玩家说这是一种非常猩红艳丽的玫瑰(Adrenalin Rose),不过这并不是重点,重点是新驱动新增Overlay功能,可以在屏幕显示GPU频率、温度、风扇转速、游戏帧数等等,而且还集成帧率记录功能,玩游戏的时候可以直接开始测试并记录帧率,非常方便。而如果你只是普通玩家的话,新的肾上腺素驱动甚至还可以更换皮肤。

虚拟现实时代的全面到来

“2016年是虚拟现实的元年”,这句话其实还仅仅来自于两年前,但是现在已经鲜有人谈起。有人说虚拟现实已经彻底凉凉,但我认为它只是在原本没有准备好的时候来到市场,因为被碰到格外高的位置再往下抛,现在只不过是正常发展当中。

2016年的虚拟现实是由Oculus牵头的,他们在彼时的3月份终于发布此前公布的消费级产品Oculus Rift CV1,此后很快的4月份,HTC推出联合Valve合作的HTC Vive,两者在规格方面大多相似,但是前者更加鼓励用户坐在桌面玩,而后者通过Lighthouse定位基座鼓励用户在区域内活动起来,虽然后来Oculus发现HTC Vive的想法是正确的,于是通过更新支持多条动作传感器基座并联实现相似的功能。

其实HTC Vive的功能是强过Oculus Rift,配件更多、售价自然更高,但是在发售后的很长时间,因为缺货OculusRift的售价比后者高很多,甚至需要一万多才能买到手,直到很晚的时候才恢复供货。不过虚拟现实产业的设备更新是远远慢于寻常设备的,直到2017年,Oculus推出基于移动体验的Oculus Go,搭载的是骁龙820,这其实是去年比较流行的方案,类似的还有HTC Vive Focus。但是两家都还是在酝酿自己的高端配置,比如说Oculus Santa Cruz。

NVIDIA GeForce 10、Radeon 400

在跳过20nm工艺节点后,NVIDIA、AMD两家的都在2016年通过新制程推出全新架构,不过两边的市场表现则不尽相同,Pascal架构相同成功,首先使用GDDR5X显存的GTX 1080在很长很长的时间里都是市面单卡性能最强的显卡,在那段时间里游戏测试的时候,AMD阵营只有R9Fury X、RX 480。坦白说新的RX 480其实是不错的显卡,性能足够、能耗比提升明显,但是因为缺乏更高端显卡,“偷电”风格,而且更关键的是在面对GTX 1060 6GB显卡没有优势,所以比较缺乏竞争力,后来遇到挖矿风潮的时候更是……

因为这样,NVIDIA凭借Pascal架构的优势,几乎可以说在过去的两三年里是处于为所欲为的,GeForce GTX 1070 Ti、GTX 1060 3GB、GTX 1060 5GB、GTX 1050 3GB、GTX 1030 DDR3,总之这代Pascal家族成员也是相当复杂,而ADM这边的情况其实一直不乐观,Vega 64、Vega 56的性能倒是没有什么问题,温度能耗比什么的也先别说,光是遇到挖矿、缺货,再看到根本不合理的高价之后,其实很少人会选择购买高端的RX Vega系列显卡,事实上是知道最近这段时间,RX 580的价格才跟随大市降价。

涅槃的Ryzen处理器,还有平民六核的第八代酷睿

说真的2017年对于AMD来说真的是太重要,因为酝酿多年的Ryzen锐龙处理器终于上市,而且规格非常良心,在面对同级别Intel处理器的时候,多线程优势会很明显,然而初代锐龙处理器上市后还是遇到很多麻烦,比如说内存兼容性,比如说游戏性能不及对手(这里既有客观原因也有其他原因)等等,但是它的优点还是很多的,比如说迫使Intel在后来的第八代酷睿处理器的规格慷慨一番。

如果你还觉得奔腾G4560处理器很良心的话,在第八代酷睿处理器当中,Core i3-8100作为入门级处理器拥有物理四核,Core i3-8400散片不足千元,但是拥有原生六核,而消费级旗舰的Core i7-8700K拥有六核十二线程的高规格,频率更是优势,冲击4.8GHz如同探囊取物,很长时间都是最佳游戏CPU。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();