当前位置:首页 > Intel
  • 震惊!三星同一个SSD分别插在Intel和AMD平台上,性能竟然差了这么多

    震惊!三星同一个SSD分别插在Intel和AMD平台上,性能竟然差了这么多

    最近纪念,桌面处理器之争主要是在intel和AMD两者之间11代酷睿桌面处理器(Rocket Lake-S)将于3月份上市开卖,泄露的跑分显示,终极一代14nm配合Cypress Cove架构可谓炉火纯青,单核直接将AMD Zen3斩落马下。 Intel最新公布的PPT显示,11代酷睿还有一个明显优势,那就是M.2 PCIe 4.0 SSD的性能表现更佳。就目前而言,市面上最好的固态盘一定是三星980 PRO 1TB M.2 NVMe固态盘,测试中,Intel实验室使用的是三星980 PRO 1TB M.2 NVMe固态盘,这可以说市面上最好的PCIe 4.0 SSD了。因此这个很能反映出问题,在基于Intel酷睿i9-11900K和AMD锐龙9 5950X搭建的平台中,PCMark 10系统存储评估中,前者比后者跑分多出11%。 网上流出的 Rocket Lake-S 测试成绩,其单核性能反胜 AMD 最新的 Zen3 架构,令人期待。 Rocket Lake将展示一种名为Cypress Cove的新桌面架构,旨在改变硬件和软件效率并提高性能。Rocket Lake将使IPC性能(世代相传)提高两位数,并将通过Intel Xe Graphics架构提供增强的Intel UHD图形。Rocket Lake-S 由于采用新一代的Cypress Cove CPU及Xe LP GPU架构,并原生支持PCI-E 4.0等新功能。 只可惜其仍然采用 14nm 成熟制程,令最高仅有 8 核心 16 线程,在 Content Creators 表现难与 AMD Ryzen 9 5950X 的 16 核心32 线程匹敌。英特尔 Rocket Lake-S 还将采用 UHD 750 核显,256 流处理器,1.3GHz 频率,相比 UHD 630 提升 50% 左右。eTeknix 收到的评测包装中包括 英特尔 第 11 代酷睿处理器(视频中已打码),但是由于是工程样品,相对于主板和散热器,处理器部分的包装显得有点简陋。通常情况下,英特尔会给评测人员提供最好的 CPU,因此推测是旗舰酷睿i9-11900K。英特尔还发布了一张 i9-11900K 的幻灯片,可以看出该 CPU 拥有 8 核 16 线程,核心频率为 4.8GHz,最高可到 5.3GHz,支持最高 3200 MHz 的 DDR4 RAM,总共 20 条 PCIe 4.0 通道,甚至与英特尔 400 系列芯片组向后兼容。相比前代,i9-11900K 的 IPC 性能提升了 19% ,核显性能提升了 50% ,并能提供更强大的AI性能。 作为过渡性质的处理器,第11代酷睿系列处理器并不是众多发烧友关注的重点,更多人期待的是代号“Alder Lake-S”的第12代酷睿系列处理器。据了解,Alder Lake-S将采用10nm ESF工艺制程,比现有的10nm SuperFin工艺制程在功耗上再降低15%左右。推出的时间可能比预计得更早,传闻今年9月份就会发布,不过真正上市可能要到12月份了。这意味着和第11代酷睿系列处理器的发布时间也就相隔半年左右,感觉Rocket Lake-S的这个过渡也有点太敷衍了。 10月8号,AMD 发布了基于 Zen3 全新架构的 Ryzen 5000 系列 CPU,代号 Vermeer。在发布会当时所公布出的爆炸般的性能提升,让人立马感觉自己手里的CPU好像有点卡卡的,速度好慢啊。 从发布开始,Zen3的目标就有三个:一是提升单线程性能,专业名词叫IPC(每时钟周期指令数),毕竟之前几代一直追求多核心为主,是时候把单核性能提升到足够的高度了,不然始终是瘸着脚走路,缺乏长久竞争力。二是在维持8核心CCD模块的前提下,统一核心与缓存,提升彼此通信效率,降低延迟。三是继续提高能效比,性能提升的同时功耗不能失控。依托Zen架构,AMD锐龙系列处理器在推出之后就迅速摧城拔寨,市场份额出现明显增长。前两天AMD官方确认,Zen3架构已经设计完成,不得不说AMD的速度相当快。虽然AMD并未对外公布关于Zen3架构的技术信息,不过外媒爆料,Zen3架构极有可能支持四线程技术。 目前处理器市场多见的超线程技术,可以理解为双线程,即一个物理核心提供两个逻辑核心,比如16核心32线程的锐龙9 3950X。四线程技术即一个物理核心可提供四个逻辑核心,如果处理器为16核心,那么其将拥有64线程。 但是目前,AMD的最大问题就是供应问题,供应短缺。Intel此番能否抓住机会,还要拭目以待

    时间:2021-02-24 关键词: 三星 SSD Intel AMD

  • Alder Lake竟然有8核16线程,Intel 12代酷睿早期样品测试来了

    Alder Lake竟然有8核16线程,Intel 12代酷睿早期样品测试来了

    在AMD,yes的浪潮之下 Intel也需要做出自己的回应,因此intel最近的桌面处理器也是爆料许多。最近也有大动作,Alder Lake 12代酷睿将是Intel第一款10nm工艺桌面处理器(也有移动版),而且是10nm Enhanced SuperFin增强版本,同时第一次引入大小核架构,第一次支持DDR5内存,第一次支持PCIe 5.0,因此换成了新的LGA1700接口,搭配600系列芯片组,那么它什么时候发布呢?预计9月发布、12月上市。 之前Alder Lake 12也是爆出了很多型号,这次检测到的是一颗8核心16线程型号,第一次见到如此配置的Alder Lake,也就是只有大核而没有小核,更像传统风格,但这种配置仅限桌面版。那么他的配置如何以及检测效果如何呢?核心基础、最高频率都是3.0GHz,当然这只是样品数据。再看看其他数据呢?一级缓存每核心指令32KB、数据48KB,二级缓存1.25MB×2,三级缓存30MB所有核心共享。对比之前8大核+8小核的二级缓存是1.25MB×3,现在可以清楚了,Alder Lake的二级缓存是大核心共享两部分1.25MB,小核心单独一部分1.25MB。至于跑分,这次不是传统的单核、多核,而是OpenCL计算性能,搭配RTX 2080成绩为108068,和官方平均分106101异常接近甚至还有小幅超越。 Intel Rocket Lake 11代桌面酷睿将于3月15日正式上市,可以搭配新的500系列主板,包括Z590、H570、B560、H510,也兼容现有的Z490、H470主板。Rocket Lake 11代酷睿的数据和工艺如何呢?Rocket Lake 11代酷睿还是14nm工艺,但是架构技术大概,采用了全新的Cypress Cove CPU核心、Xe LP GPU核心,性能大大飞跃,单核性能已经可以超越AMD Zen3架构的锐龙5000系列,并原生支持PCIe 4.0,但因为仅有最多8核心16线程,多核性能非常吃亏,功耗也偏高。Alder Lake 12代酷睿同时桌面、笔记本,将于9月份发布、12月份上市,节奏非常快。 根据此前的消息,Alder Lake大核是Golden Cove(黄金海湾)大核心、Gracemont小核心,提供8+8、6+8、2+8、6+0等不同组合方式,也就是最大可以摸到16核,制造工艺方面有说法称CPU部分是10nm,GPU部分则继续14nm。这下也印证了这个报道。不过遗憾的是,结合SiSoftware数据库中信息,Alder Lake仍旧搭配的是DDR4内存。在上个月的CES 2021中,intel曝光称在今年3月会上市11代的桌面级酷睿CPU,而目前12代CPU曝光了,这也是intel首次采用10nm制程。12代酷睿代号为“Alder Lake”,同时面向桌面和笔记本,首次在桌面上引入10nm工艺、大小核设计、DDR5内存,同时更换新的LGA1700封装接口。终于内存还是升级了。 相比十一代酷睿,Alder Lake处理器的亮点太多了,首先是10nm SuperFin增强版工艺10nm ESF,功耗降低15%,其次是首发混合x86架构(高性能+高能效big.LITTLE)、再次是新的处理器接口LGA1700、最后还有对DDR5内存甚至PCIe 5.0的原生支持。架构升级是这次的重点,Alder Lake的大核心会升级Golden Cove内核,小核应该是Gracemont,核显自然是Xe架构,也不容小觑。在 CES 发布会上,英特尔表示下一代处理器 "Alder Lake" 代表了 x86 架构的重大突破,也是英特尔性能可扩展性最高的系统级芯片,将于 2021 年下半年上市的 Alder Lake 支持将高性能核心和高能效核心整合到单个产品中。Alder Lake 也将成为英特尔首款基于全新增强版 10 纳米 SuperFin 技术构建的处理器,并将作为领先台式机和移动处理器的基础产品。Alder Lake可以说是十多年来Intel x86桌面处理器最具看点的一代了,10nm SuperFin增强版工艺,12代酷睿可能采用LGA1700接口,旗舰的酷睿i9-12900K为16核24线程(8大核支持超线程、8小核没有,所以是24),其中大核是Golden Cove、小核是Gracemont,核显为增强版Xe(Gen12.2)等。 这次intel的动作是真的快,一年两代,但是不知道这两款处理器的性能是否真的能达到预期了,毕竟这只是样品,后续还是期待正式版本。

    时间:2021-02-24 关键词: Alder Lake 酷睿12 Intel

  • AMD连发爆款,各大半导体芯片崛起!intel未来如何走下去

    AMD连发爆款,各大半导体芯片崛起!intel未来如何走下去

    要问前几年芯片厂商最大的肯定是intel,intel的酷睿系列伴随着我们走了一个又一个的春秋,然而这几年,Intel不再是一家独大,各家的芯片都逐步崛起半导体行业最大的事件莫过于曾经的“农企”,如今“Yes!”的AMD崛起了。如今各大厂商无一不在喊着AMD!yes!的的口号,AMD最近也是疯狂发布新的CPU、GPU等各种处理器。尤其AMD的zen3,zen4系列出来之后现在非常多数的人都选择AMD的处理器。最近网上讨论最多的已经不再是Intel的处理器而是AMD的处理器。 AMD和intel的创始人师出同源,都来自于仙童半导体。不过AMD的创始人杰里·桑德斯出身销售,intel的创始人戈登·摩尔则是技术大牛,这也造就了两家日后在市场上境遇:A家处理器长期都是高分低能代表,无论是性能还是发热等都被intel碾压。但是在近期,情况发生了改变,越来越多的人喊着AMD,yes! 在年初的CES 2021展会上,AMD发布了锐龙5000U系列处理器,在Zen 3微架构的加持下,性能和能效获得了巨大进步,也标志着轻薄本的下一轮换代即将开启。惠普作为一线OEM厂商,也对旗下的商务本产品线——战系列进行全面升级,推出了全新的战66 四代AMD版。作为搭载Zen 3架构处理器的首批轻薄本产品,战66 四代AMD版由内而外都得到了全方位进化,性能强大、轻薄时尚,同时也更加耐用。最近,有外媒曝光了AMD最新的架构的锐龙处理器,分别是Raphael(拉斐尔)和Phoenix(凤凰)两个代号,前者采用AM5接口,Phoenix则采用FP8接口。这两者都是5nm Zen4架构下的新处理器。 在年初的CES 2021展会上,AMD发布了锐龙5000U系列处理器,在Zen 3微架构的加持下,性能和能效获得了巨大进步,也标志着轻薄本的下一轮换代即将开启。惠普作为一线OEM厂商,也对旗下的商务本产品线——战系列进行全面升级,推出了全新的战66 四代AMD版。作为搭载Zen 3架构处理器的首批轻薄本产品,战66 四代AMD版由内而外都得到了全方位进化,性能强大、轻薄时尚,同时也更加耐用。 这下intel不好受了。AMD出新品即爆,但是intel就没有这么幸运了。近期Intel已经很少出爆品了。 但是并不是所有人都喊AMD YES,AMD想要真的YES面临的问题还很多。最显著的就是供货问题了。AMD能从台积电那里分到的产能就那么点,如果OEM都跟着只推AMD,是准备不开张了吗? 最近,苹果也和苹果分手了,和苹果分手可能不是最让intel伤筋动骨的,但一定是面子上最挂不住的。 对于苹果和intel“离婚”事件,许多分析师给出的结论是:长久以来,苹果都对intel移动端处理器的高功耗和高发热感到不满,这对苹果来说是难以忍受的,MacBook需要一款高性能和长续航的芯片。 而另一方面,iPhone的成功得益于A系列芯片和iOS软硬结合的独特优势,苹果可以根据自己的愿景来设计和制造芯片。 芯片产业尤其是人工智能芯片,在2021年仍然会成为一个热门话题。在这个领域里,资本市场一致看好的Nvidia,PE比已经达到97.6,AMD 的PE比也到了43.4,相比之下,Intel仅为12.8,这是因为之前Intel的表现让人看不到它的未来发展。 而到了趋势投资时代,Intel是在人工智能芯片的大潮流里,所以只要能够作出一些符合趋势和市场期待的举动,上涨的机会就很大。 但是intel在价格上也有着优势根据目前电商平台的处理器价格来看,Intel虽然在同级产品当中核心数量不如AMD更多,但如果根据产品定位和使用需求的来看的话,在主流用户群体当中,Intel处理器经过几次的价格调整已经变成了当前更具有性价比的CPU选择,尤其是对比锐龙5000系列处理器。 Intel日子是真不好过了,苹果与之分手,自己产品也逐渐被赶上,往后的日子课不好过了。难道要打价格战吗?

    时间:2021-02-22 关键词: 半导体 芯片 Intel

  • oneAPI 编程语言 DPC++ 功能收入 SYCL 2020 最终版规范

    oneAPI 编程语言 DPC++ 功能收入 SYCL 2020 最终版规范

    英特尔 oneAPI 编程语言 Data Parallel C++ (DPC++)功能已收入 Khronos Group 今日发布的 SYCL 2020 最终版规范中。Khronos Group 是由业界知名公司组成的开放性联盟,致力于创建领先的互操作性标准。 自 2019 年推出以来,DPC++ 已取得重大进展,通过 oneAPI 卓越中心构建了跨架构和跨供应商支持,并成功将多项功能升级为行业标准。 通过开放的、基于社区的 DPC++ 开发工作,英特尔为 SYCL 提升编程抽象做出了重大贡献。新的功能加速了在 XPU 架构(如 CPU、GPU、FPGA 和 AI)上高性能计算(HPC)、机器学习、嵌入式计算和计算密集型应用程序的异构并行编程。 英特尔数据中心 XPU 产品和解决方案副总裁 Jeff McVeigh 表示:“SYCL 2020 最终版规范为行业带来了重要功能,帮助 C++ 开发人员能够更高效地在跨 XPU 架构上通过统一编程构建高性能异构应用程序。在开源 oneAPI C++/DPC++ 编译器中的几项功能开创行业先河,如统一共享内存(Unified Shared Memory)、群算法和子群,为这一社区的努力(DPC++)作出贡献。分布式计算的加速需要开放和跨架构编程;我们期待能够继续这项合作,以满足开发人员的需求。”

    时间:2021-02-20 关键词: oneAPI Intel

  • 帕特·基辛格履新英特尔公司 CEO

    帕特·基辛格履新英特尔公司 CEO

    英特尔公司 2 月 15 日正式完成 CEO 过渡,帕特·基辛格上任成为英特尔公司创立以来第八任 CEO。基辛格是一位成就卓著的 CEO 和业界资深人士,拥有四十余年的技术资历和领导经验,包括他从业以来在英特尔服务的 30 年。 对于回归领导英特尔,基辛格表示:“作为新任 CEO 我非常兴奋,因为我们有机会让英特尔这一伟大形象再放光彩,英特尔对于方方面面的技术都至关重要,并将继续引领未来。因为我相信英特尔拥有宝库般的技术专家和技术资源,而最终它的核心 DNA 将使英特尔成为未来的技术领导者。作为一名技术专家,同时内心也是一名极客,我很高兴能在领导岗位上,助力将这家伟大公司所拥有的激情、历史和机遇带到前所未有的高度。我们最美好的日子就在前方。”

    时间:2021-02-20 关键词: 制程 Intel

  • 英特尔 CEO 帕特·基辛格(Pat Gelsinger)致员工的一封信

    英特尔 CEO 帕特·基辛格(Pat Gelsinger)致员工的一封信

    帕特·基辛格于 2021 年 2 月 15 日正式担任英特尔首席执行官,他向所有员工发送了以下这封信: 帕特·基辛格(Pat Gelsinger) 大家好! 今天,我很高兴以英特尔这一标志性企业的 CEO 身份写这封信。自 50 多年前创立以来,英特尔一直是创新的引擎。在很多方面,它就像我的家一样。我常说,我就是在这里长大的,充满着壮志雄心和坚定信念,相信科技的力量能造福地球上每个人。在戈登·摩尔、罗伯特·诺伊斯和安迪·格鲁夫的领导和启迪下,我很兴奋能在这里开启我梦想的事业。 于是,我们走到一起。今天,我们的产业正在飞速发展。技术对人类的重要性前所未有。一切都在数字化,四个关键的超级力量:也就是云、5G 驱动的移动性、人工智能和智能边缘,它们将超越并改变整个世界。英特尔是唯一一家在智能芯片、平台、软件、架构、设计、制造和规模化方面,均拥有广泛而深厚实力的半导体公司,我们的客户需要充分抓住这些机遇来驱动其下一代创新。 我坚信,我们能够在这个风云变幻的环境中成为世界领先的半导体公司,并为创新和技术引领的新时代开辟航道。要抓住这一巨大机遇,我们必须重点做好四方面工作: ●在我们所竞争的每一个业务领域都成为引领者。我们必须走在客户需求的前面,在激烈的市场竞争中行动更加敏捷,并证明我们的产品、路线图和制造能力所带来的差异化价值。 ●完美地履行我们的承诺。客户在开发未来的产品和制定未来战略时,必须能够倚赖英特尔。我们必须积极进取去设定目标,再次赢取市场和行业领导地位,这些目标必须能够达成,且必须以最高的质量来完成。 ●大胆、快速、充满激情地创新。通过我们无可比拟的知识产权、工程人才以及对新一代计算架构的研究,我们将成为整个行业持续创新之源。 ●重新焕发我们的文化活力,以吸引并激励全球最优秀的工程师和技术专家。英特尔必须是全球最优秀的人才实现梦想的地方。我们需要用一种充满活力、包容开放的文化,来释放我们的巨大能量和潜力。我们需要恢复一些格鲁夫式的纪律,推动直接、透明、数据驱动的决策以及负责制。 能与才华横溢的全球员工合作,我备感兴奋和荣幸,我期待着与你们所有人交流。我已经在持续努力加快熟悉业务情况,并将在接下来的几周里继续优先安排我的大部分时间来倾听和学习。我会在这个过程中持续更新、经常分享,敬请期待。 我深知,英特尔最好的时光就在前方。让我们共同奋进前行!

    时间:2021-02-20 关键词: 制程 Intel

  • 中国为何没有Intel和ARM这样的芯片巨头?该揭开真相了

    【导读】为什么中国做了30年芯片都没有出现英特尔、ARM这样的巨头?关键在于国产CPU缺少强大的生态系统。有着十余年芯片行业经验的torvaldsing投书,把x86生态系统和ARM生态系统的艰难发展历程和残酷的市场竞争大起底。最后呼吁马化腾:请借助腾讯的强大生态,把CPU和OS这两个老大难问题给OTT掉! 这几天中兴事件持续发酵以来,各种议论纷纷扰扰。 有十余年芯片从业经验的水木网友torvaldsing告诉记者,这几天对他触动最大的,还是碧树西风写的这句话: 一碗牛肉面,真的要用牛肉,真的要用面,真的要炖很久,这么简单的道理,偌大一个国家,这么多精英,过去这么多年了,咋就不能懂呢? 做芯片很难,做核心芯片更难,做需要生态系统的CPU芯片,比大家想象得都要难。 因此,torvaldsing投书,尝试谈一谈x86生态系统和ARM生态系统的艰难发展历程和残酷的市场竞争,向大家介绍一下做CPU的各种困难,以及眼下能看到的一线希望。 以下是torvaldsing的雄文: 我尽量写得轻松一些,因为其实这个话题很有趣,仔细探究起来,很多看似爆炸性的新闻,其实草蛇灰线伏脉千里,在很早之前就发端了,这其中的故事,真的像演义小说一样好玩。 本文会罗列很多的往事和参考资料,保证有诚意。一些地方没忍住加上了一些三脚猫的分析,欢迎拍砖打脸。(本文约1.3万字,建议先收藏后阅读) x86生态系统 如今Intel在服务器市场占有率近乎100%,在桌面市场也大于80%,再加上Intel一贯重视宣传,在普通大众的心目中,Intel就是芯片的代称,甚至是高科技的代称。但Intel并非生而如此,它的牛X千真万确是熬出来的,是在列强环伺的竞争环境中杀出来的。 称王 七十年代,在搭上IBM PC这趟快车之前,Intel的8位处理器已经很成功,但也有很多竞争者,Zilog是其中翘楚,它研发的Z80系列产品和Intel的8080兼容,性价比高。一直到90年代,中国很多大学的微机实验课,还在用Zilog的板子。当时还有一款处理器风头不逊于8080系列,即MOS公司的6502。后来MOS把6502的ISA(指令集架构)授权给了众多厂商,流传甚广。70年代苹果创立之初的Apple-I和Apple-II,80年代任天堂的红白机,90年代初的小霸王学习机,90年代末的文曲星,都使用了6502系列的CPU。 IBM PC给了Intel和微软大发展的机会。但它俩必须面对竞争。IBM PC是IBM主导下的一个开放标准,各个零部件都是可以替换的。所以才有了“兼容机”的概念,和延续至今的装机市场。当时IBM要求Intel必须把x86指令集授权给其它厂商,避免CPU供应商一家独大。(详细的x86兼容处理器生产厂家列表见https://en.wikipedia.org/wiki/List_of_x86_manufacturers)IBM自己也有生成x86兼容CPU的权力。同时,为了限制微软的MS-DOS,IBM自己也做DOS操作系统,名为PC-DOS。 在IBM PC阵营内部,Intel面对其它CPU供应商的竞争,在阵营外部,还要和苹果的Macintosh电脑竞争。当时苹果已经换用Motorola 68000系列CPU,性能强劲,图形界面诱人。当时用Mac的人,逼格要高于用IBM PC的人。 Intel顶着阵营内外的竞争压力,苦心孤诣地发展壮大。这时候潜在的威胁在慢慢酝酿。从1981年的RISC-I开始,精简指令集(RISC)逐步流行起来,诞生了一系列RISC风格的CPU:1985年MIPS公司推出第一款商用的RISC芯片,HP公司在1986年推出PA-RISC,SUN公司在1987年推出SPARC,Motorola在1988年推出MC88000。当时大家普遍认为RISC优于以x86为代表的CISC风格CPU,就连Intel和AMD也害怕在RISC潮流中落伍,AMD在1987年推出了AM29000,Intel在1988年推出了i860/i960。 开始时RISC似乎并没有威胁到桌面市场,MIPS、PA-RISC、SPARC全是用来做服务器和工作站的。被苹果流放的乔布斯用MC88000系列CPU做NeXT桌面电脑,铩羽而归。1986年,英国的Acorn公司推出了一款名为ARM的RISC处理器,次年,它还配了个操作系统叫RISC OS,强攻桌面市场,可惜最终只在英国掀起来了一些波澜。 1991年,RISC阵营实实在在地杀入桌面市场。这一年,IBM看到在PC阵营里,Intel和微软这两个小弟坐大,慢慢不受自己的控制,索性拉拢Apple和在RISC市场不得志的Motorola,推出了PowerPC架构,由IBM和Motorola生产芯片,Apple做操作系统和整机,推出全新的Power Macintosh电脑。这三家组成了AIM(Apple-IBM-Motorola)联盟,气势汹汹地向Wintel联盟发起攻击。 结果是Wintel赢了,个中原因众说纷纭。有人说Wintel保持对已有软件的向下兼容,而Apple频繁更换底层的CPU,导致的不兼容气走了用户,然后由此强调软件生态的重要。我则以为,历史的发展有一定的偶然性,如果当时Wintel不是比尔盖茨和格鲁夫在掌舵,而Apple是乔布斯在掌舵,可能结局完全不同。2005年,乔布斯掌舵下的苹果,把Mac里面的CPU由PowerPC换成Intel的芯片,就完成得干脆利落,没怎么受到软件生态的牵绊。 总之,在80年代,大家就已经深深懂得CPU的ISA是软件生态系统的根基,不愿让这个“生态之根”被别人控制。整机和系统的制造商,通过强制CPU厂商给其它厂商授权自己的ISA,来保证有第二家甚至更多的供应商。如果不慎“生态之根”被别人控制了,例如IBM被Wintel篡了权,甚至不惜另起炉灶来竞争。 同样是把自己的指令集授权给其它厂商,Intel把几乎所有的其它供应商都挤死了,只省下AMD苟延残喘;MOS则销声匿迹了,完全靠其它生产商把6502系列延续到了二十一世纪。造成这一差异的原因纵有千万条,我想“打铁还需自身硬”是最根本的。 霸业 在桌面市场上,Windows 95和Windows 98这两款操作系统,让Wintel联盟登上了霸业的顶端。从1995年到2003年,Intel看起来简直是不可战胜的。 与此同时,Intel还把几乎所有的RISC架构的CPU都干趴下了,占领了服务器市场。原因大概有这么几点。 第一,从技术角度讲,RISC是一种设计CPU的理念,而不是具体的某一种ISA。像x86这样的复杂指令集,其实在实现过程中,也能借重RISC的理念。1989年的80486,已经隐隐地可以看到RISC风格的流水线,1995年的Pentium Pro,其核心已经是一个乱序执行的RISC了,只不过多了一个复杂的译码逻辑,把x86指令拆分成RISC风格的微操作。因此从技术角度讲,RISC指令集未必比x86有优势。 第二,RISC成也UNIX,败也UNIX。UNIX和C语言树立了很好的软件开发传统,确保同一套代码可以很方便地在不同CPU之间移植。80年代,一大堆RISC架构的CPU,都可以很快配上自己的UNIX,很快把已有的C语言编写的应用跑在CPU上,然后就可以卖了。SUN公司的SPARC配有Solaris,HP公司的PA-RISC配有HP-UX,IBM公司的PowerPC配有AIX。 这些林林总总的UNIX变体,反过来又进一步促使UNIX生态系统中软件开发人员重视代码的可移植性,大家都很小心地围绕POSIX标准来编程,避免过分依赖于某个操作系统独有的功能。这样,一旦Intel芯片携Linux(一种开源的UNIX变体)来和RISC架构的工作站竞争,软件应用就纷纷以很小的移植难度,离开了昂贵的专有UNIX工作站。 第三,当时PC市场比服务器市场大得多,Intel在PC市场的盈利帮助它研发更好的服务器芯片,巨大的出货量降低了芯片的制造成本。研发优势和成本优势,奠定了Intel最终胜利的基础。 这段时间,Intel还几次面临挑战,每次都成功保卫了自己对于生态系统的掌控权。 第一个挑战,来自Internet浏览器。Netscape Navigator诞生后,对微软和Intel都是挑战。虽然当时的动态网页还非常初级,但是已经有人喊出“Web is the computer”的概念。等到Java Applet出现之后,大家更是觉得可以在网页上实现桌面应用的效果,未来只需一个浏览器,就能取代桌面。Netscape的Marc Andreessen在1995年,就着手把Netscape浏览器打造成一个Internet OS。以那个时代的软硬件水平,毫无疑问地,这些尝试失败了。 用一个高层次的软件API,兜住所有的上层应用,然后让底层的硬件,都来支持这个API——这个主意不单单在技术上看起来很炫,从商业上,这是上层应用厂商消解底层平台厂商生态霸权的终极武器。因此,在那之后的二十年里,商业上的尝试一直在持续,包括: 1. 腾讯开发的WebQQ和Q+,在网页里面提供一个类似Windows桌面的应用场景,后来失败了,回退到功能单一的SmartQQ。个中原因,我个人认为还是那个时代的PC性能不够。 2. 腾讯开发的微信小程序,在微信里面通过HTML5和Javascript实现手机App的功能,可以横跨iOS和Android。 3. 谷歌推出ChromeOS和ChromeBook笔记本,里面跑的应用,全都是基于HTML5和Javascript的。 我个人认为,微信小程序几乎一定会成功,它一旦成功,腾讯必然会重燃在PC平台上做Q+的野心。Intel在桌面的霸权,最大的威胁不是AMD,也不是ARM,而很可能是HTML5+Javascript,熟悉“降维打击”的人,对此不会感到意外吧。 第二个挑战,来自虚拟机(Virtual Machine)和JIT(Just-in-time)编译器。先锋是Java的虚拟机JVM,后来微软也推出了DotNet虚拟机,支持C#等语言。虚拟机有一套虚拟的指令集,源代码先被编译到这个虚拟的指令集上,在程序运行时,JIT编译器再把这套虚拟指令集编译为CPU的原生指令集。面向虚拟机开发的程序,例如Java Applet,可以在不同的CPU和操作系统平台上运行。 如果有某个虚拟机,它的指令集可以无缝支持所有的编程语言,还能保证高效率,那么所有CPU的都将被OTT(over-the-top)了,就像短信被微信OTT一样。可惜还没有一个虚拟机可以实现此目标。现在大家熟知的虚拟机,都是和语言绑定的,例如JVM只支持Java、scala、kotlin等;DotNet虚拟机只支持C#、VB.net等;V8只支持Javascript、typescript等;HHVM只支持PHP。 同一个VM上跑的语言相互调用很容易,跨VM很难互操作。由于虚拟机实在太多了,它们反而成了新的CPU架构的拦路虎:80年代只需要搞定C语言编译器就能卖Unix工作站,如今ARM服务器要想挑战Intel,必须把所有这些基于VM的编程语言都支持得很好,JIT编译器的效率都要做得比较高才行。 第三个挑战,来自Transmeta公司对x86指令集的Emulation(Emulation这个词很难翻译,索性不翻了)。简单地说,Emulation就是把x86指令集看成一个虚拟机的指令集,然后用类似JIT编译器的技术,在非x86的CPU上跑x86的程序。未经许可用别人的ISA做CPU是违法的,但用Emulation的方式实现ISA则不违法(Intel和Transmeta只打过专利的官司没打过ISA的官司,Intel还输了)。 如今最广为人知的Emulator是Qemu,上文提到的x86、MIPS、PowerPC、Sparc、MC68000它都可以支持。一般而言,Emulation会导致性能下降一个甚至若干个数量级,根本不足为虑。 1995年,Transmeta公司成立,经过艰苦的秘密研发,于2000年推出了Crusoe处理器,用Emulation的方式,在一款VLIW(超长指令字)风格的CPU上执行x86的程序,这样就规避了没有x86指令集授权的问题。Transmeta的牛X在于,虽然是Emulation,但实现了接近Intel处理器的性能,同时功耗低很多。2000年年底Transmeta的IPO大获成功,其风光程度,直到后来谷歌IPO的时候才被超过。 Transmeta最后还是失败了,Intel在渠道上打压它是次要原因,性能不足是主要原因。虽然VLIW在90年代中后期被广为推崇,但事实证明,它的性能比起乱序执行的超标量架构,还是差一截。另外Transmeta的芯片是在台积电制造的,那个时候不比现在,台积电的工艺水平比起Intel还差很多。2000年的时候,PC还远没有性能过剩,性能还是比功耗重要。等到2010年,Intel的Atom处理器慢得一塌糊涂,依然靠着低功耗,点燃了上网本的大火。 Transmeta虽然失败了,Emulation技术仍然在发展。NVidia在2008年购买了Transmeta的低功耗技术的授权。2014年,NVidia推出了Tegra K1芯片,其中的Denver处理器,利用Emulation技术,在底层的7路超标量架构上,实现了ARM64指令集。值得注意的是,NVidia拥有ARM64的指令集的授权,它不是用Emulation技术来规避什么,而是用Emulation来提升性能,实现比硬件直接执行还要高的性能。根据评测结果,Denver超过了当时苹果最好的手机CPU。近期推出的Denver2处理器的,性能更是秒杀苹果的A9X和华为的麒麟950。 Emulation技术如果真的发展到了比直接执行还要快,Intel的麻烦才刚刚开始。微软联合高通,推出基于SnapDragon835处理器的笔记本,运行Windows 10操作系统,上面可以安装x86的软件。Intel虽然很不爽,但Emulation并不需要指令集授权,所以他只能警告说,在实现Emulator时,不许侵犯Intel的专利,而这一点,微软和高通肯定早已考虑到了。 挫折 x86生态系统曾经面对过一次最严重的、近乎灭顶之灾的挑战。这次挑战来自于谁?就来自于它的缔造者Intel。 Intel心不甘情不愿地把自己的x86指令级授权给了AMD等一众供应商,眼睁睁看着他们分享自己的利润,很不爽,于是想在x86之外另起炉灶,建设自己独享的生态系统。正巧在90年代初期,升级64位计算成为一个风潮,1991年有MIPS R4000,1992年有DEC Alpha,1995年有SUN SPARC64。1994年开始,Intel联合HP,准备趁32位升级64位的时机,抛弃原有的x86架构,新推出一个EPIC(Explicitly Parallel Instruction Computing)架构,名为IA64(Intel Architecture 64-bit)。 x86架构兼容老旧应用程序的能力是出了名的。8086把8位的8080升级为16位的时候,80386升级到32位的时候,都完全兼容旧有的程序。直到今天,Intel的处理器依然支持虚拟8086模式,在此模式下,可以运行30多年前的8086程序。升级到64bit的时候,Intel居然要放弃所有之前的8位、16位、32位应用了!可想而知当时在业界会引起怎样的轩然大波。Linux的缔造者Linus Torvalds公开对此表示反对。 IA64进展得并不顺利,EPIC本质上就是一种VLIW,如前所述,VLIW的性能比乱序超标量要差。而且EPIC的编译器非常难以开发。原定1997年就会推出产品,但直到1999年才发布IA64指令集,2001年才推出产品。另外Intel也不敢完全放弃之前的32位x86应用,它给出的解决方案是Emulation,但EPIC不像Transmeta为Emulation做了很多专门优化,跑32位x86应用的性能很差。 这个时候,千年老二AMD站了出来,为x86续命。2000年,它推出了AMD64指令集,延续了x86架构兼容老旧应用程序的优良传统,可以原生执行8位、16位、32位的老程序。2003年,AMD推出Opteron服务器CPU和Athlon64桌面CPU。 AMD64从技术上和生态上都压了IA64一头,Opteron在服务器市场上为AMD赢得了前所未有的成功。2004年,Intel推出了代号为Nocona的至强服务器CPU,它支持一种称为EM64T的技术,EM64T就是AMD64的马甲。江湖有传言说,Intel曾想提出另外一套不同于AMD64的x86升级64位的方案,但微软为了避免x86生态的分裂,极力阻止了。2012年,Intel推出了最后一代IA64的CPU,关闭了这个不赚钱的产品线。 回顾这段历史,有几点特别令人感慨。 首先,即使是看似无比强大不可战胜的Intel,不顾生态系统中其它伙伴的利益,一意孤行也是会撞南墙的。 其次,幸好由于历史的原因,x86生态中,AMD和Intel是交叉授权的关系,AMD有权加入3DNow这种多媒体扩展指令,也有权加入64位指令,如果是像如今ARM的架构级授权方式,被授权的企业不能自行加以扩展,那可能还真没有办法阻止Intel了。 最后,Intel的执行力还真是超强,掉头极快,EM64T的CPU只比AMD64的CPU晚出了一年(当然不能排除Intel早就有备份方案)。 虽然在IA64上栽了跟头,但Intel靠着自己的技术实力,持续不断地推出性能和功耗表现更好的产品,AMD在64位战役中所取得的优势,慢慢也被消磨掉了。 岁月如梭。进入移动互联网和云计算时代之后,服务器的需求量上升。这时RISC架构的服务器CPU几乎快被消灭干净了,只剩下IBM Power奄奄一息。于是Intel几乎独享了服务器市场扩大所带来的红利。但它却高兴不起来,因为移动市场形成了ARM一家独大的局面,移动终端CPU这个市场,Intel怎么也挤不进去。 正巧Intel在刚刚火过一把的上网本市场里设计了一种低功耗的x86核心,即Atom。Intel以Atom为武器,杀入了手机芯片市场。2012年,Intel的老伙计联想,推出了第一款Intel芯片的手机K800。紧接着还有Motorola的XT890。2013年,中兴、华硕也有产品问世。但三星、小米、华为、OPPO、VIVO等出货量大的厂商,都没有采用Intel的芯片。这些手机大厂,看看x86生态中做整机的联想如何艰难度日,估计心里也是一万个不乐意让Intel到移动领域来继续称王。 到2014年,Intel芯的手机还是没有打开局面,市场唱衰之声一片。但Intel并不想放弃。手机攻不下,那就攻平板!大厂攻不下,那就攻白牌!嫌我的芯片贵,我就给补贴!又过了两年,平板也没有攻下来。在移动市场赔了上百亿美金的Intel,黯然离场。 Intel失利的原因众说纷纭,我觉得根本原因还是竞争力不足: 首先,这个时候的台积电已经不是Transmeta家Crusoe芯片诞生时的吴下阿蒙,它生产的手机芯片的功耗和性能并不输给Intel; 其次,这次Intel并无生态系统的优势,要靠名为houdini的Emulator来执行ARM指令集的程序,性能打了折扣。试想,Intel芯的手机如果性能和待机时间都是iPhone的两倍,谁能抵挡得住这种诱惑? 几乎在进攻移动市场的同时,Intel也在推出产品试水物联网市场,只不过没有大举宣传。2013年10月,Intel推出一款叫做伽利略的Arduino开发板,上面的CPU叫做Quark(夸克)。Quark是比Atom(原子)还小的基本粒子,这个名字暗含着轻巧、低功耗的意思。接着,Intel在2014年的CES大会和2016年的IDF大会上,先后推出了升级的爱迪生和焦耳开发板。 Intel的大名和Arduino联系在一起多少有些奇怪。Arduino是一套可以跑在低端MCU上的C语言函数库,是电子创客们的最爱。淘宝上Arduino开发板才几十块钱。焦耳开发板上的处理器是4核心、1.5GHz,跑Arduino太浪费了。和它参数近似的Raspberry PI 3 Model B+开发板,四核64位ARM Cortex A53跑1.2GHz,淘宝价不到200块。焦耳开发板要369美元。谁会当这个冤大头? 物联网市场极度分散,有无数应用但规模都不大,Intel赚大钱习惯了,在这个微利又需要贴近客户做服务的市场里,百般不适。2017年,Intel悄悄停产了针对物联网市场的开发板。 Intel接下来所可能面对的挫折,是ARM侵入服务器和桌面领域。这个话题下文还会有简单分析。 ARM生态系统 近几年ARM风光无限,抢新闻头条的能力不逊于Intel。 在很多圈外人看来,这家高科技公司好像是在移动互联网时代新冒出来的,但其实它的历史和几乎和80286一样古老。而且它自诞生以来,就以移动(portable)设备为自己首要的目标市场。它等待一飞冲天的风口,等待了二十年。 发端 前文提到,ARM是Acorn电脑公司创造的。 Acorn电脑公司创立于1978年,在80年代初,它用6502系列CPU制造的BBC Micro电脑在英国大获成功。6502的性能慢慢跟不上时代了,Acorn想基于80286开发新的电脑,但是Intel连样片都不给——要是Intel大方些,ARM或许根本就不会诞生。 Acorn一气之下开发了ARM(Acorn RISC Machine),这是世界上第一款定位中低端(而非服务器)RISC处理器。1985年,ARM1诞生(但从未被商用),后来Acorn在1986年和1990年分别推出了ARM2和ARM3,1987年推出了RISC OS和桌面电脑Archimedes。它在英国的教育市场获得了一定的成功,但1990年之后,很快被Wintel的生态击败了。 1990年前后,研发掌上电脑成为一股风潮。当时有家叫做Active Book的公司,拿ARM2处理器开发一个叫做Personal Communicator的产品。可惜产品上市前,Active Book被AT&T收购了,AT&T把ARM2换成了自家的Hobbit处理器。 幸好东方不亮西方亮,当时的苹果公司看好ARM,把自己研发的Newton平台中的处理器,由AT&T的Hobbit,换成了ARM。这个“彼此互换”的故事听起来让人头大,大家只需要记住,ARM的第一颗商用处理器ARM2,就曾被尝试拿来做手持的电脑。 ARM的东家是Acorn,和苹果在电脑市场上有竞争。苹果公司花了6周时间说服Acorn把ARM独立出来运营。1990年11月27日,合资公司ARM正式成立,苹果、Acorn和VLSI分别出资150万、150万、25万英镑,Acorn把ARM处理器相关的知识产权和12名员工放在了新成立的公司里。此后,ARM的缩写被转而解释为Advanced RISC Machine。 为了节省成本,新公司在剑桥附近租了一间谷仓作为办公室,全力为苹果的Newton研发ARM6处理器(4和5这两个编号被跳过去了)。 Newton(牛顿)是苹果花大力气研发的触屏移动技术平台,Newton OS是不同于Mac OS的操作系统(如同后来的iOS)。如果你听过苹果、牛顿和万有引力的故事,应该能体会苹果公司对Newton平台有多么高的期望。 Newton平台的第一款产品MessagePad于1993年8月上市了,采用32位ARM610处理器,频率为20MHz,屏幕大小为336×240,重量410克,采用4节7号电池供电,售价699美元(相当于今天的1129美元)。可惜的是,它销量很差,上市头四个月的销量不过5万台。 1998年,中国的恒基伟业公司推出了一款叫做 “商务通”的产品,像极了Newton Messagepad。它采用Dragonball处理器,主频仅16MHz,屏幕大小10汉字x10汉字,重量105克,采用2节5号电池供电,售价人民币1988元。靠着“呼机手机商务通,一个也不能少”的广告,商务通在1999年大卖100万台。虽然2001年后商务通及类似产品很快就被越来越强大的手机挤出了市场,但让人好奇的是,背靠营销能力更加强大的苹果,Newton为何没能一炮而红? 其中一个重要的原因是,Newton重点宣传的手写识别功能表现很糟糕。而商务通对手写汉字的识别率——根据我个人的体验——还真是不错,考虑到它仅仅16MHz的CPU主频,能做到这么好简直是奇迹。当时商务通部分型号的卖点就是“连笔王”,对潦草的汉字识别得相当好。 软件对于一款产品的重要性,真的是生死攸关啊! 深耕 扯远了,让我们回到ARM的故事上来。 1990年ARM创立之初,给自己定下的使命是“设计有竞争力的、低功耗、高性能、低成本的处理器,并且使它们成为目标市场中广为接受的标准”,目标市场包括:手持设备(Portable),嵌入式(Embedded Control)和汽车电子(Automotive)。跨越近三十年,这个使命和市场定位始终未变,直到今天。 而且,根据我了解到的知识,ARM是处理器的源代码授权这一商业模式的开创者。如今,芯片设计从Verilog等源代码出发,经过一系列自动化或半自动化的优化步骤,最终形成工厂制造芯片所需要的版图文件;整个过程类似软件从源代码被编译为CPU的机器码。但在80年代,芯片的设计自动化非常原始。七八十年代的处理器授权,都是指令集的授权。Synopsys公司于1986年成立,1987年推出把Verilog编译为门级网表的DesignCompiler,之后基于源代码的芯片自动化设计流程才慢慢地被建立起来。于是源代码授权才成为技术上可行的模式。 ARM从未自己生产过商用的芯片。它只是将自己研发的处理器的源代码的知识产权(IP)授权给芯片厂商,由它们推出最终芯片。受益于这一商业模式,尽管在1993年,Apple的Newton失败了,但ARM并未因为设备卖不出去而亏钱,还幸运地拿到了TI的订单,于是成功盈利了。员工数量也由12人增长到了42人。次年ARM又拿到了三星的订单,员工增长到70多人,搬出了谷仓。 除了源代码授权的模式之外,ARM也做指令集授权,1995年,ARM把指令集授权给DEC,DEC很快设计出了性能更好的StrongARM处理器。1997年,StrongARM产品线被卖给Intel,更名为XScale。 1995年,Motorola在香港的研发团队基于MC68000指令集开发出了针对手持设备的DragonBall处理器,在这之后的十年,DragonBall处理器一直都是ARM强大的竞争对手。不但Moto自己的手机用它,Palm、三星、Sony的手机也用它。当然还有前文提到的商务通。ARM相对于Dragonball处理器有什么优势?我认为最大的优势是从客户需求出发的、持续的创新;其次是ARM的开放的商业模式。 RISC指令集一般都采用32位定长指令,代码密度比起x86之类的CISC来要差一些,但手机的存储空间有限,对代码密度的要求高。1994年,ARM为此专门研发了16位的指令集Thumb,以及支持这一指令集的ARM7TDMI。 开放授权的商业模式,使得整机厂在选择芯片时,可以找到支持同一指令集的多种芯片产品,不容易被绑架。Nokia作为和Motolora旗鼓相当的手机制造商,肯定不会选择竞争对手的Dragonball,而ARM的技术实力和商业模式,正好符合Nokia的需求。 1997年,Nokia推出了一代经典6110,它采用TI的芯片,处理器核心是ARM7TDMI。6110是Nokia第一款带红外接口的手机,第一次内置了经典的贪吃蛇游戏,它的界面成为了之后Nokia手机的标准。从此,Nokia和ARM成为了好基友,Nokia的Symbian操作系统,一直都建立在ARM架构的基础上。 1998年,趁着6110大红大紫的东风,ARM在Nasdaq上市了。同一年,SGI公司看到处理器IP授权生意有利可图,把MIPS部门拆分出来,次年MIPS推出了它第一款可授权的处理器设计M4K。此后的十年里,MIPS一直都是ARM有力的竞争对手。 商务通在中国流行的那几年,国际市场上流行性能更高的掌上电脑和智能手机,操作系统包括Palm OS、微软的WinCE、Nokia的Symbian、RIM的Blackberry OS,Motorola的Wisdom OS。在这个领域里,ARM阵营中负责高性能的XScale大放异彩,暴击Dragonball。当Dragonball的频率还停留在33MHz/66MHz时,Xscale已经飙到了200~400MHz。MC68000指令集在手持设备领域败走。Palm OS的1.0~4.0都是基于MC68000指令集的,5.0就换成了ARM。后来Motorola的半导体部门Freescale干脆推出了基于ARM核的iMX系列产品,替代Dragonball产品线。 苹果作为掌上电脑的先行者,却在这次浪潮里无所作为,在Wintel的挤压下,它的桌面业务都已经濒临绝境,无暇顾及其它市场了。1997年,不温不火的Newton从苹果公司独立了出来。当乔布斯回归苹果之后,又火速把Newton收编了回来,并且干净利落地停掉了Newton产品线——乔帮主只想要Newton手里的ARM股份。1998年到2003年,苹果通过出售ARM的股票获利11亿美元。这笔钱,是乔布斯复兴战略的重要燃料,可以说是苹果的救命钱。 绽放 经过多年的深耕,ARM在新世纪开始时,已经是手机领域里的王者,依然在为客户的需求做着持续的创新,Java加速技术就是一个典型的例子。 从2000年开始,功能手机的性能提升到了足够高的水平,人们希望在手机上玩比较复杂的游戏,而不仅仅是贪吃蛇。但是手机的处理器和操作系统实在是太分散了,为了方便游戏跑在不同手机上,J2ME平台应运而生。从原理上讲,J2ME和Applet并无不同,都是基于JVM的。Java在并不分散的桌面领域没有获得成功,但在分散的手机领域获得了成功。 J2ME的游戏越做越复杂,但手机的处理能力毕竟有限,桌面和服务器上的JIT编译器在手机上跑得太吃力了。于是ARM在2001年推出了ARM926EJ-S处理器,它支持Jazelle DBX技术,可以直接解码和执行Java的字节码,省掉了JIT编译器的负担。这一功能大受欢迎,帮助ARM9系列成为了迄今最受欢迎的ARM处理器,总共有250多个授权厂家,其中100多个授权的是ARM926EJ-S。 在MTK助推山寨功能机火遍神州的那几年,主控芯片所使用的核全部都是ARM9。在iOS和安卓的应用商店诞生之前,功能手机全靠J2ME开发的应用来实现各种炫酷的功能。从某种意义上讲,在低端市场上,Jazelle是助力山寨机火爆的最大幕后功臣。 然而高性能ARM芯片的扛把子XScale,却被Intel于2006年6月卖给了Marvell。这是Intel实施x86-everywhere战略的一个步骤。Intel希望x86的生态也能进入到低功耗的移动领域,而不是用自己先进的工艺制程和设计能力帮ARM建设高端应用的生态。22个月之后,2008年4月,低功耗的Atom芯片诞生了。 高性能ARM芯片的扛把子换成了苹果。2004年,在卖光ARM股票的一年之后,乔布斯决定研发iPhone。2007年1月,在Intel放弃ARM之后仅半年,iPhone诞生了。苹果可不会采用低端市场上死守ARM9那种玩法,iPhone一代就采用了400MHz的ARM11;2009年的iPhone 3GS,升级为600MHz的Cortex A8;2010年的iPhone4,苹果自研的A4芯片升级为1GHz的Cortex A8。接下来苹果自研芯片性能一路狂飙的历程,大家都很熟悉了。 从ARM6到ARM11,这些IP核都是按照兼顾移动设备、汽车电子和嵌入式这三个市场的思路来设计的。从2003年起,ARM把产品线有针对性地划分为A、R、M三个系列,分别对应上述三个市场,而且IP核的名字都统一加上了Cortex的前缀。Cortex A8就是A系列的第一个作品。iPhone 3GS和iPhone4令Cortex A8大火,但让ARM一飞冲天的推手,却是iPhone的竞争对手——安卓(Android)。 有很多文章介绍安卓如何诞生,如何在移动设备领域干掉了除iOS之外的全部对手,毋须赘述。这里只想强调一个被普遍忽略的事实:安卓从诞生之初,就要求应用程序采用Java编写,并且跑在Dalvik虚拟机上;但iPhone上的应用,都是原生的ARM程序。要知道Android手机的处理器性能相对iPhone并无优势。 山寨之王MTK于2009年2月推出的首款智能手机芯片MT6516,采用406MHz的ARM9;2008年~2010年间由HTC推出的那几款卖得很好的Android手机,也无非是ARM11和Cortex A8的核,几百兆的频率,这种级别的处理器跑虚拟机还是蛮吃力的。另外虚拟机占用内存大的缺点,也不利于用户体验和降低成本。 谷歌宁可冒着让安卓出师不利的风险,也要推广Dalvik虚拟机。这是为什么?谷歌内部的决策过程我们无从得知。一个合理的猜测是,谷歌不愿看到手机领域里ARM一家独大,它希望给MIPS、x86等其它CPU一个机会。J2ME的成功,让谷歌看到完全建立在虚拟机上的手机应用生态,是完全可能的。 Dalvik虚拟机可以跑Java,但并不采用JVM那种基于堆栈的字节码,而是改用一种基于寄存器的方案。这么做当然是为了规避SUN公司(后被Oracle收购)的专利,同时也让无法直接运行JVM字节码的MIPS、x86能够实现轻量级的JIT编译器,无须Jazelle这样的技术。从另外一个角度讲,MIPS在电视、机顶盒、游戏机市场上占优,x86在桌面市场近乎垄断,支持它们,也意味着安卓有可能进军电视和桌面。 安卓对所有CPU而言,都是巨大的机会,谁抓住了这个机会,就可以一举改变竞争格局,实现霸业。 只可惜MIPS公司太不给力,一直也没有搞定靠谱的MIPS版Android。等到2011年1月,Synopsys公司给自家的ARC处理器移植好Dalvik虚拟机和浏览器用的V8虚拟机、Android环境已完备的时候,MIPS都还没动静。顺便说一句,Intel曾经的南桥芯片里都有ARC处理器,它是Active Management Technology(AMT)的重要基石。 这个时候,北京的君正公司坐不住了。君正靠做低成本的MP4播放器起家,2011年5月在创业板上市。君正拥有MIPS的架构级授权,对自己研发的XBurst处理器非常自信,准备靠它进攻手机和平板市场。2011年7月,基于君正JZ4760的MIPS智能手机通过Android兼容性测试。2011年12月,基于君正JZ4770平台的平板电脑,被谷歌选为Android4.0的首发产品,一时风光无限。 ARM的强大软件生态此时起到了护城河的作用。基于君正的平板,软件兼容性出了问题。原因在于谷歌没有强求所有的应用都跑在Dalvik虚拟机上,对于部分对性能有苛刻要求的app,例如游戏,谷歌允许用CPU的原生指令集来开发,为此还提供了NDK(Native Development Kit)。对于那些包含了ARM原生指令的游戏,君正的平板要么不支持,要么用emulator支持,总之用户体验都不好。 ARM生态圈里,在2011年,正好有两家芯片厂商异军突起:全志和瑞芯微,它们分别推出了采用Cortex A8处理器的A10芯片和RK2918芯片,成本极低,主打平板和安卓电视盒子。君正的平板梦被它们粉碎了,之后只好转战安卓手表,消沉了很多年。对于MIPS而言,还有一个坏消息是,在它们的强力助推下,电视盒子市场也成了ARM的天下。经营不善的MIPS于2012年卖给了Imagination,Imagination不但没能依靠MIPS在CPU市场中有所作为,反而在GPU市场里也败给了ARM,在2017年被迫整体卖身,MIPS业务卖回给了硅谷公司。 2012~2016年,Intel在安卓市场上挑战ARM,也失败了。于是安卓给CPU带来的红利,全部被ARM吃掉了。随着手机越来越重要,ARM也越来越重要,它所推出的最新的Cortex A系列处理器,被手机芯片争相采用。ARM生态也越来越强大,它的触角,慢慢伸出了手机领域。 渗透 2011年1月,微软在CES宣布要为ARM架构开发Windows 8 RT操作系统。在2012年年底,几乎和Intel芯手机上市的同时,包括微软自家的Surface RT在内的一大批二合一平板设备上市了。Windows 8 RT不支持所有之前为x86平台开发的应用程序,这成为它最大的软肋,相关的产品慢慢销声匿迹了。ARM渗透桌面市场的第一次尝试失败了。 最近微软和高通所推出的ARM芯的Windows 10,吸取了教训,用Eumlation的机制来支持旧有的x86桌面程序。这次尝试能否成功,我们拭目以待。 2009年,ARM推出了Cortex A9处理器,并且用40nm的工艺制造了双核的样片,跑到了2GHz。这是ARM第一次推出乱序超标量的处理器核,而乱序超标量是Intel实现高性能的关键技术,这是非常振奋人心的消息。2010年,Marvell推出了1.6GHz的4核A9的服务器芯片Armada XP。2013年,这款芯片被部署在百度的存储服务器上,这是ARM服务器第一次大规模商用。但Marvell并未继续推出新的服务器芯片。2011年,一家创业公司Calxeda采用Cortex A9,推出了共有480个CPU核的ARM服务器。但它的成就还不如Armada XP,2013年公司就倒闭了。 2012年,AMD收购了一家做高密度服务器的厂商SeaMicro,准备把它所采用的CPU核由Intel的Atom换成ARM架构的CPU。但直到2014年AMD才推出8核Cortex A57的服务器芯片Opteron A1100,之后从来也没有认真卖过它。2015年AMD就放弃了SeaMicro这个子品牌,不再做高密度服务器了。 ARM进攻服务器市场的第一次尝试失败了。Marvell和Calxeda都采用的是32位的ARM核,先天不足;AMD则三心二意,毕竟自己还有x86 Server的生意。另外服务器市场对于单核单线程的运算能力也有很高的要求,仅仅有低功耗和高通量(high throughput)是不够的。 在ARMv8这一64位指令集发布之后,Cavium和AppliedMicro这两家老牌网络芯片厂商不约而同地将自己原先芯片中的架构换成了ARMv8。因为产品的需要,Cavium和AppliedMicro都有自行设计处理器微架构的能力,前者做MIPS处理器,后者做PowerPC处理器。它们两家做ARMv8处理器时,也都采用了只授权指令集,微架构自研的模式。Cavium共推出过两代基于ARM的产品(2014、2016年),AppliedMicro推出过三代(2013、2015、2017年)。随着产品性能逐渐接近Intel的Xeon E5,它们渐渐不再满足于原先的网络领域,开始觊觎服务器市场。 最让人期待的还是高通的Centriq芯片,2015年年底量产24核版本,2016年年底量产升级48核版本,还得到了微软的强力支持。考虑到高通还和贵州成立了合资公司华芯通,Centriq很可能成为在国内大规模商用的第一款ARM服务器芯片。 另外具有国防背景的天津飞腾公司,也有ARM服务器芯片的产品,只是不知道这些产品何时能在通用市场上铺货。 其他确定在研发ARM Server芯片的大厂还包括Broadcom和华为,进度上要略慢一些。 ARM阵营对服务器发起的第二波冲击,阵容要强大得多豪华得多。因此ARM才敢于宣称,在2021年拿下25%的服务器市场份额。 要做好Server CPU,ARM架构还有些功课要一点一点补。多Socket服务器所需要的一致性协议,业界刚刚取得共识准备采用CCIX,但还没有具体的产品出来。做云端虚拟机所必备的虚拟化支持,ARM还有些性能问题。x86处理器提升Throughput的利器超线程技术,ARM阵营尚不能支持。Intel芯片近年来陆续增加的安全特性,也够ARM追赶一阵子的。但目前看来,ARM已经没有致命的短板,蚕食掉Intel的服务器市场份额是板上钉钉的事情,唯一的悬念是究竟多少份额? 未来ISA将不那么重要 从长远看,半导体厂商对建立于ISA之上的生态系统的掌控力会变弱,而ISA本身,会变得越来越不重要。这是软件技术发展的趋势决定的,如前所述,这些技术在90年代末就已经初有小成了。 第一是Web技术。网页开发领域,有一个大家视若无睹的奇迹:最后居然只有Javascript一种开发语言屹立至今。要知道在服务器端和移动App领域,开发语言多如过江之卿。其中原因我也分析不出。反正js的挑战者(微软的VBScript和谷歌的Dart)都失败了。网页开发领域面临的主要问题是浏览器差异大,API不太兼容。这个问题慢慢在缓解中,一来浏览器战争大局已定,Android和PC上的Chrome,以及iPhone和Mac上的safari是胜者;二来很多网页应用是跑在App里面的,例如微信和支付宝里,这种场景下Javascript的API已经被特定厂商规范过了。 由于开发语言和API的高度统一,H5(HTML5+Javascript)已经成了兼容所有硬件的最通用的软件开发平台。曾经有人鼓吹H5会赶走移动端和PC端的原生程序,后来被打脸了。但是移动端和PC端的原生App中,越来越多的界面是用H5生成的了,微信、支付宝、京东、淘宝、爱奇艺、有道词典……统统都是这样。 Javascript吞噬一切的进程还在持续。2007年,Stack Overflow的联合创始人Jeff Atwood曾经提出过一条Atwood定律:任何能够用JavaScript实现的应用系统,最终都必将用JavaScript实现。十年过去了,此定律基本奏效。把Javascript的一个子集当作汇编语言的asm.js及其后续的WebAssembly,更加使得网页应用有媲美原生应用的潜力,在浏览器里跑Unity3D的游戏都不是问题。 独立的应用程序仍然会是移动和桌面端的主流,因为没有独立程序,不方便做弹窗广告,不方便启动后台进程收集用户信息,不方便引诱用户安装其它独立程序。但Web的能力的确在快速提升,Web Component技术实现了类似GUI库的Widget复用,如今在浏览器里实现Office和IDE的功能都毫无问题(office365.com、docs.google.com、editor.construct.net、腾讯文档);而WebGL已经能支持Unity3D这种大型游戏框架。 照此趋势发展下去,独立应用程序仅仅会作为一个包装而存在,开发者写一套H5,加上不同的包装,就成了PC、Mac、Android、iOS上的独立应用程序,不加包装,就是网站。微软去年开源的ReactXP,就是为了实现这一目标。 这意味着什么?不但底层的CPU被OTT了,操作系统也被OTT了。因为移植一个应用程序到各个平台上,几乎没有什么难度。谁将是生态系统的掌控者?若干个超级App,像微信、QQ、支付宝这样的。它们不但包装自家的应用,其它开发者也可以把自己的应用放在这个包装里面,借重超级App的广泛覆盖度,抵达最终用户。前文提到了,如果微信小程序获得成功,腾讯必然会重拾Q+的野心,把QQ变成桌面上各种H5应用的App Store。 如果真的会这样,微软岂不是会比Intel还着急?拜托,微软已经不是二十年前主要靠卖Windows和Office的光盘赚钱的那家公司了,未来它会专注于云计算。但Intel还和二十年前一样在卖芯片。 第二是编译技术尤其是虚拟机的发展。如今的编程语言太多了,80年代那种搞定C语言编译器就OK的好日子早已过去。任何一个新CPU架构要想在移动、桌面、服务器市场站稳脚跟,都得搞定无数的编译器(包括虚拟机用的JIT编译器),这是个坏消息。但好消息是,搞定这些编译器基本就差不多了,不用劝说开发者重写汇编代码。 老一代程序员对x86处理器架构和汇编都非常熟悉。求伯君当年开发WPS时,手写几十万行汇编;雷军读本科时,是系里20多年来拿过《汇编语言程序设计》满分成绩的两个学生之一;梁肇新开发超级解霸时,把MMX汇编玩得出神入化。感兴趣的读者可以看看梁的《编程高手箴言》,那里面,描绘了一个对现在的程序员而言,完全陌生的世界。在那个世界里,你开发的PC应用程序想要移植到Mac平台上,几乎要完全重写。 如今高层次的编程语言接管了一切,汇编语言从很多学校的本科课程里消失了,入门教材也从C改成了Java,甚至是Javascript或Python。程序员完全不熟悉底层的CPU。即使是真的需要拼性能的场合,编译器也在很大程度上代替了手写汇编。ARM的工程师告诉我说,ARM在开发开源的Compute Library过程中,主要依靠在C源码中加入标注来指导编译器生成SIMD指令,而不是像梁肇新那样手写。 在这种情况下,软件平台厂商就变得非常强势,因为他们知道,应用开发商只需付出重新编译一遍的代价。比如苹果,就要求所有的App都改为64位的。这样,未来苹果在手机CPU里放弃对32位应用的支持时,甚至都不会有人感觉得到。这对于x86生态系统而言,简直是天方夜谭,显然微软对此非常眼馋,并且尝试在Windows 10 S中复制这种掌控力。 至于谷歌,Android把所有应用都跑在虚拟机上的尝试虽然失败了,但如果未来它再针对AR/VR、AI或机器人发布一个什么软件平台的话,就很有可能完全禁止原生程序。 而Oracle,正在努力开发可以支持所有编程语言、能把所有CPU给OTT掉的全新VM:GraalVM。我们拭目以待。 第三是Emulation技术的发展。虽然眼下ARM阵营中靠Emulation进攻Intel的先锋是高通,但最可怕的选手其实是NVidia。NVidia拥有最厉害的Emulation技术,而且江湖传言Denver处理器的初衷就是针对x86的。当初NVidia的Tegra处理器曾被拿来做Windows 8 RT的二合一平板。如今Denver处理器跑Windows 10绝不会让人意外,那么它会怎么跑呢?肯定是直接在底层硬件上做x86的Emulation,而不是在Emulate出来的ARM指令集上再做一层Eumulation。 Denver处理器前些年没有跳出来抢Intel的饭碗,很大程度上是因为NVidia还在做Intel平台的主板芯片组,另外NVidia还没有那么强大。如今NVidia也不做芯片组生意了,还借AI的东风,股价扶摇直上。说不定哪天,NVidia就会放出Denver处理器的x86 Emulator,做到单线程性能不输Xeon,强攻服务器市场。想想看,在单芯片上集成GPU和x86版的Denver,云计算厂商能不动心? 如果未来Emulation技术进一步发展并且被越来越多的厂商掌握,很可能会出现这种情况:CPU本身是某种外界不了解的指令集,官方发布时,只能Emulate某种开放的指令集,例如RISCV;但是用户可以给它安装不同的Emulator,让它变成x86-64处理器,或者ARM64处理器。在软件定义一切的时代,这并不是多么疯狂的想象。 总之,CPU依然不可或缺,但CPU用谁家的,是什么指令集,会越来越不重要。软件的发展,会在用户和底层的CPU之间加入足够大的缓冲带,CPU的差异,越来越难以被用户察觉到。 展望:让CPU不再难 就像10多年前一样,只要搞定知识产权问题,选择技术路线,找会干的人,投入干,CPU/芯片就能够做出来。搞不定的依然是操作系统。差距大的依然是生态。 当年,绕得过Intel,跨不过微软。如今,绕得过Arm,做不出安卓。 我也曾在北大参与过国产CPU的研发,生态之难体会颇深,真的,只是烧钱做芯片,无论烧多少都无法挑战Intel和ARM,何况过去二十年真的没烧多少。 但我并没有那么悲观,毕竟技术的潮流无法抗拒,借用马化腾的一句名言“可能你什么错都没有,最后就是错在自己太老了”。 Intel和ARM如此强大而且极少犯错,我们如此弱小就算它们犯错也无法利用——但我们可以欺负它们的“老”。 在此借此宝地,向小马哥呼吁一声: 请借助腾讯的强大生态,把CPU和OS这两个老大难问题给OTT掉吧! 做法非常简单,把Q+桌面再重新搞起来,做一款完全使用Javascript&Webassembly编程的操作系统,里面用腾讯文档来替代Office,各种微信小程序都支持起来,适当支持游戏(但要加入家长监控系统)。补贴芯片厂,让它们使用ARM或RISC-V外加国产Imagination gpu做SoC,生产类似Surface这样的二合一平板。底层CPU使用的ISA完全不可见,上层编程完全用H5。这样,就帮祖国把CPU和OS这两个陈年大洞都补上了。 芯片要下苦功,别凡事都指望模式创新。这不假。但偏偏CPU真的面临一个十倍速变革的机会,真的有靠模式创新而胜出的机会,为什么不试试呢?如果腾讯不去尝试一下,谁还有资格呢?促进祖国的微电子发展功德无量,相信这次不会有人说腾讯垄断之类的闲话。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

    时间:2021-02-03 关键词: ARM Intel

  • 传Intel将订单外包给台积电和三星,旗下GPU将使用4nm工艺

    传Intel将订单外包给台积电和三星,旗下GPU将使用4nm工艺

    据韩国经济日报报道,三星电子获得Intel的第一笔订单。 该芯片组安装在电脑主板上,起到控制计算机输入输出操作的作用。 报道中还提到,Intel委托台积电生产图形处理器(GPU),后者计划使用4nm工艺制造Intel的GPU,计划从今年下半年开始生产。 据悉,三星也将从今年下半年开始,在其位于德克萨斯州奥斯汀的代工厂,生产Intel的南桥芯片组,月产能为15000片晶圆,相当于奥斯汀工厂产能的3%。 一位业界相关人士表示:“虽然这次三星未能拿下Intel的GPU订单,但是此次芯片代工订单仍然意义重大,因为三星为将来赢得高端芯片订单奠定了基础。” 昨天,Intel即将上任的CEO帕特·盖尔辛格(Pat Gelsinger)在财报电话会议上表示,7nm芯片制造工艺将被用于2023年销售的芯片。 Pat Gelsinger表示:“我对7nm项目的恢复和进展感到高兴。我相信,我们2023年的大部分产品将会在内部制造。与此同时,考虑到产品组合的广度,我们也很可能在某些产品技术上扩大对外部芯片代工厂的使用。” Intel最新的芯片采用了14nm或10nm工艺,而台积电和三星等芯片代工厂目前采用5nm工艺。更精细的制造工艺可以在单位面积上容纳更多晶体管,从而提高效率,带来性能更强大的处理器。 来源:快科技

    时间:2021-01-25 关键词: GPU 台积电 Intel

  • 从Intel Fab开始一段21世纪炼金之旅

    在Intel的工厂里有这样一条规矩,坐落于美国的Fab都是以2为结尾,坐落于以色列的Fab则是以8位结尾,而爱尔兰则是以4为结尾。但在2010年Intel大连Fab落成时,为了从名字上讨个吉利,大连工厂负责人梁志权最终选择了Fab 68这个符合中国特色的名字,为此,梁志权还特意提交申请并获得了以色列相关工厂的批准。由此,Fab 68正式诞生…… 作为亚洲最大的半导体产品生产基地,坐落于大连的英特尔Fab 68以及后续扩建的Fab 68a拥有16.3万平米的建筑面积,其中Plus 10(所谓Plus 10,就是每立方米空间中的灰尘颗粒不超过10个)级别的洁净厂房面积达到1.5万平方米。也正是在这里,地球上最丰富的元素——硅,经过3-5个月的进化,将成为单位重量比黄金还贵的存储芯片。 说它是21世纪的“炼金术”毫不为过,只不过相对于记录在中世纪书本上的炼金术,从硅到半导体的进化复杂程度要多N倍…… 01从沙子到芯片 硅是地球上储量最丰富的元素,而去除杂质后的沙子就是硅的最好来源。正如同古代炼金术一样,沙子也同样需要多个步骤的高温熔炼才能去除二氧化硅中的氧原子,变为纯净、熔融状态的硅。这些经过处理生成的硅单质纯度高于6个9,这意味着每100万个硅原子中才有一个原子的杂质。 接下来,高温液态硅会在坩埚中围绕一个晶核缓慢的一边旋转、一边被拉伸成一个直径300mm、高约1m的圆柱体硅锭。就像做棉花糖一样,这是一个化腐朽为神奇的过程。之所以要缓慢进行则是因为要尽量保证硅原子能够凝结成规整的六边形晶格,这样才能形成最稳定的物理、化学性质。 此后,完成的硅锭会被切割成多个厚度约为1mm的晶圆运往光刻车间,开始另一段神奇的旅程。 在Plus 10级别的洁净车间中,一摞摞晶圆会被沿着天花板轨道运行的机器人送至不同的光刻机之中。 通过每台价值数千万美元的光刻机,晶圆会被涂上一层能够被紫外线分解的光刻胶,而紫外线则会通过画有电路结构的掩模照射在晶圆之上。随着光刻胶被紫外线分解,掩模上的电路结构便会在光刻胶上显现。这个过程非常像投影机的显示过程,只不过作用完全相反;投影机是将小的画面投射在大的荧幕上,而光刻则是将大的画面投射在极小的晶圆上。 再之后,晶圆会被浸没在能够腐蚀硅的溶液中,这样,在光刻胶上形成的电路结构就会被腐蚀在晶圆之上,形成各种沟槽。经过清除光刻胶、在晶圆的沟槽内填充用来形成晶体管的磷、硼等物质之后,一次光蚀刻便完成了。 02 复杂精密的技术支持 想得到真正可用的半导体晶片,这种光蚀刻过程要反复经历几十、几百次,工序多达几千道,持续3-5个月才能完成。这个过程有多难?我们不妨做个简单的计算,如果每道工序的成功率在99.9%,那么在2000道工序之后,最终的成品率是13.51%。如果想要通过量产收回成本,一家合格的半导体工厂良率通常需要达到85%以上。 最终,在通过电镀方式为晶圆附上一层导电的金属(铜)层之后,Fab68的基本工作大功告成,一枚芯片才算基本造好了。经过封装测试之后,沙子中的硅从地球上最丰富的元素变成了能够存储数据的芯片,价值已经提升了无数倍。 在这个充满了数千万美金设备和连生产环境构建都要以百万美元计的顶尖半导体制造领域中,Fab68的存在不仅是Intel的骄傲,更是梁志权及整个中国团队的荣耀。梁志权表示:在这样一个顶尖制造领域,Fab68在建厂两年刚刚进入量产阶段之时便获得了Intel内部最高级别的团体奖——质量金奖。Fab68团队是第一个,也是目前为止的唯一一个。而在之后的2018年,刚刚投产的Fab68A又再次获得了这一殊荣,创造了Intel众多工厂的另一个记录。 虽然按照重量算,沙子在Fab68中已经完成了“点石成金”的蜕变,但这并非历程的终点。之后,Intel的另外一批工程师及合作伙伴会继续接手,为Fab68的产品赋予更加神奇的价值。 03 从芯片到解决方案 从产品类型来看,Fab68生产的芯片主要是QLC为代表的NAND闪存。一期项目于2016年投产,并于2017年发布两款全新的基于3D NAND的数据中心级固态盘—英特尔? 固态盘DC P4500系列及英特尔? 固态盘DC P4600系列。2018年投产二期项目,目前,英特尔最先进的96层3D NAND存储芯片制造技术也在大连工厂中应用。 与我们熟知的二八原则类似,数据中心里数据的热度也呈现出类似的两极分化状态——90%的IO操作都集中在10%的热数据上,另外90%的冷数据只承担10%的读写。这意味着,我们需要为这10%的热数据提供更好的性能,为另外90%的数据提供更好的存储性价比。道理虽然很简单,但目前数据中心里很多问题却正是出在这里。 为了满足性能和容量的阶梯状变化需求,数据中心的数据存储结构通常以DRAM来承载对性能要求最高的数据,以TLC闪存来存储次高数据,以HDD来存储普通或偏冷的数据,最冷的归档数据以磁带来应对。他们之间在容量和性能上的差距最好都是10倍。 但如果仔细判断研究这些分层,我们不难发现,无论从性能还是容量来看,内存与普通TLC闪存之间的差距都不符合前面提到“一九”原则,同样的问题还出现在TLC闪存与普通HDD硬盘存储之间。 这种性能与容量上的断层使得总会有许多数据在两个断层之间来回迁移,这会浪费大量的时间、占用大量带宽,拖慢整个数据中心的性能。而傲腾内存与QLC闪存正是为解决这两大断层存在的问题而生的。 在DRAM与TLC闪存之间,傲腾内存能够凭借微秒级的响应速度和10倍于普通内存的容量填充两者之间的空隙。而QLC则能够以更低的单位容量成本满足普通TLC与HDD之间对性能和容量的差异化需求。 如果问题能够通过简单的置办新硬件来解决,那么本文也就该到此结束了。但实际的情况却是目前数据中心里运行的绝大多数应用都诞生于傲腾内存与QLC存储出现之前,并没有为这两种新产品做好准备,因此,填补数据中心存储间隙的工作就从简单的“买买买”变成了一个需要包括Intel和合作伙伴在内的产业上下游通力协作的系统性大工程。 面对这样一个系统性工程,企业用户的动力在于获得更好的性价比和更低的TCO。 通过使用傲腾持久内存,快手的Redis服务TCO降低了30% 在腾讯云Redis云数据库应用傲腾持久内存,内存容量扩大 在使用了傲腾内存+QLC存储之后,百度智能云的TCO获得了60%的降低 从上面的实际用户案例可见,无论用户从哪里下手,在何种层面上解决数据中心存储中的性能、容量断层问题,带来的收益都是十分可观的。用户有收益,工程便有价值,而实践这份价值的人正是Intel及其庞大的生态合作伙伴,双方携手架起基础硬件和应用之间的桥梁,把复杂的系统性问题简单化、一站化。 对此,浪潮集团存储产品部副总经理孙斌表示:浪潮与英特尔始终紧密合作,此前不仅联合推出优化Ceph的方案,近期双方更共同开发以傲腾最新的双端口NVMe SSD作为高速缓存的全闪存存储平台,并基于金融、交通、政府、能源等不同行业背景推出行业场景化解决方案,推动以傲腾固态盘为代表的创新存储技术在企业级存储系统中的应用与推广。通过双方的合作,不难看出,通过傲腾内存、傲腾固态硬盘以及QLC固态硬盘在设备内的混合搭配使用,浪潮能够帮助用户通过简单的设备更新实现更大的容量、更好的性能。最终的结果便是用更少的设备完成原有应用负载。 0 4 21世纪的炼金之旅 从沙子到芯片,通过Intel通过极端精密的技术使硅元素经历了一段堪比炼金术的身价飙升之旅;从芯片到解决方案,Intel的合作伙伴通过芯片特性到用户价值的翻译转录实现了价值、获得了收益;而采用这些解决方案的用户则能够以更低的成本实现更好的性能,完成TCO的降低。纵观全局,这段从沙子到解决方案的“旅程”最神奇的地方则在于,它让参与环节的所有人都能够真正受益。 当然,这还只是Intel以数据为中心的六大支柱其中的内存&存储一环,在更大的范围内,这种神奇的操作每天都在大量发生,一个产业链的繁荣更是仰赖与此。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

    时间:2021-01-21 关键词: 芯片 炼金 Intel

  • 芯耀辉加速全球化部署,任命原Intel高管出任全球总裁

    芯耀辉加速全球化部署,任命原Intel高管出任全球总裁

    2021年1月18日——先进工艺芯片IP领先企业芯耀辉科技有限公司(以下简称“芯耀辉”)宣布任命安华(Anwar Awad)先生担任芯耀辉全球总裁,全面负责技术和产品战略实施,管理国际研发团队,及领导公司并购战略。随着安华先生的加入,芯耀辉得以加速全球化部署的脚步,全面提速先进芯片IP技术的研发和产品布局。 安华(Anwar Awad),芯耀辉科技全球总裁 安华先生拥有超过30年半导体行业全球顶尖企业的研发和产品管理经验。先后担任Synopsys(新思科技)全球研发副总裁及Intel(英特尔)全球副总裁,管理超过1500人的全球化研发团队,成功组建跨国的客户技术支持和项目管理团队,开创行业领先的研发和产品管理模式,并推动IP产品的可靠性测试、老化测试和全系统认证等前沿技术理念的落地。安华先生所负责的先进工艺IP产品受到全球众多芯片制造厂的大力推崇,曾为公司创造过150倍的业务增长,开创了IP全球业务的范式。安华先生也深谙全球兼并与收购、P&L管理,他深厚的经验、独到的技术和市场洞察将为公司下一步技术及业务的战略部署带来独一无二的价值。 安华先生在接受任命时表示:“芯耀辉致力于研发先进工艺芯片IP,以更好的服务于数据中心、智能汽车、5G、物联网、人工智能、消费电子等领域发展,让芯片的创新更容易。将IP赋能芯片产业与人类社会的数字化转型,这与我坚信未来芯片产业的发展方向无比契合,是我加入芯耀辉的主要原因。我十分高兴能加入这支卓越且有理想的团队,把我在过去30多年行业经验用于这一激动人心的事业,持续创新IP技术,持续为行业生态创造价值。” 芯耀辉科技创始人、董事长曾克强先生表示:“安华先生是业界泰斗级的专家和领袖,他的技术实力和对应用市场的敏锐洞察在整个行业内无出其右。我们热烈欢迎安华先生加入芯耀辉。他的加入将进一步提升公司的尖端研发实力和产品部署速度,助力芯耀辉打造创新的、面向未来的芯片IP产品,以新技术赋能产业,携手生态合作伙伴一同创造智慧未来。”

    时间:2021-01-18 关键词: 全球化 芯耀辉 Intel

  • Intel换帅!30年技术大牛,曾任VMware CEO

    Intel换帅!30年技术大牛,曾任VMware CEO

    英特尔公司董事会任命帕特·基辛格为首席执行官。 他将于2021年2月15日起担任这一职务。 新闻要点: ● 司睿博(Bob Swan)将继续担任首席执行官一职,直至2021年2月15日。 ● 英特尔预计2020年第四季度营收和每股收益(EPS)将超过此前公布的业绩指引。第四季度业绩将如期于2021年1月21日公布。 ● 英特尔在7纳米制程技术方面已取得重大进展,并将于1月21日的财报电话会议上更新相关信息。 1月13日,英特尔公司宣布,公司董事会已任命拥有40年资历的科技行业领袖人物帕特·基辛格(Pat Gelsinger)为新一任首席执行官,该任命自2021年2月15日起生效。基辛格履新后也将加入英特尔公司董事会。而他所接替的现任首席执行官司睿博(Bob Swan)将履职到2月15日。 今天的宣布与英特尔2020年的财务表现无关。英特尔预计公司2020年第四季度营收和每股收益(EPS)会超过此前在2020年10月22日公布的业绩指引。此外,英特尔在7纳米制程技术方面已取得重大进展,并将于1月21日如期公布第四季度和2020年全年财报时更新相关信息。 基辛格是一位备受尊敬的首席执行官和业界资深人士,拥有40多年的技术资历和领导经验,包括他从业以来在英特尔服务的30年。 英特尔公司董事会独立董事长Omar Ishrak表示:“帕特是一位久经考验的技术领袖人物,在创新、人才培养和对英特尔的深入理解方面,他的阅历可谓出类拔萃。他将继续发展基于价值观和公司文化的领导方式,高度专注于运营执行力。董事会经过审慎研究后得出结论,现在是英特尔转型的关键时期,正是充分发挥帕特在技术和工程方面专长,进行公司领导变动的合适时机。帕特将与公司领导团队的其他成员一起,持续推动英特尔从CPU向多架构XPU的公司转型,确保强有力地执行英特尔战略,以巩固其产品领先性,抓住未来重大发展机遇,对此公司董事会充满着信心。” 基辛格表示:“在这个对公司、我们的行业和我们的国家都很关键的时刻,我重新加入并带领英特尔迈步向前,感到非常兴奋。我曾在英特尔开启职业生涯,并在格鲁夫、诺伊斯和摩尔门下学习成长,能回来领导公司我备感荣幸。对于英特尔丰富的历史和强大的技术积淀,我心怀崇高的敬意,这些技术奠定了世界的数字基础设施。我相信英特尔在继续重塑技术未来方面有着巨大的潜力,我也期待着与极具才华的全球英特尔团队一起工作,致力加速创新,为我们的客户和股东创造价值。” Ishrak还指出:“董事会和我深深感谢司睿博在英特尔转型期间所发挥的领导作用和所做出的重大贡献。在他的领导下,英特尔在转型为一家多架构XPU公司的战略上取得了重大进展,正充分利用市场变革的机遇,让英特尔扩展到快速增长的领域。司睿博还在重新激发公司文化活力,以更好地执行我们的产品和创新路线图方面发挥了重要作用。他留给英特尔一个强大的战略和财务位势,他还在与帕特一起工作以确保公司领导平稳过渡的过程中不断提供指导,对此我们深表感激。” 司睿博表示:“过去两年中,我的目标一直是让英特尔进入一个全新的分布式智能时代,提高执行力,加强我们核心的CPU业务,并扩大业务范围加速增长。随着这些优先事项取得重大进展,我们现在来到向英特尔下一任领导人过渡的恰当时刻。我完全支持董事会选择帕特,并深信在他及管理团队其他成员的带领下,英特尔作为世界上最具影响力的科技公司之一,将继续引领市场。” 近年来,基辛格自2012年起担任VMware威睿公司首席执行官,他带领公司转型为云基础设施、企业移动和网络安全领域公认的全球领导者,使公司的年营收几乎翻了三倍。在加入VMware威睿之前,基辛格担任EMC易安信总裁兼信息基础架构产品首席运营官,负责管理信息存储、数据计算、备份和恢复、RSA安全和企业解决方案的工程设计和运营。在加入EMC易安信之前,他在英特尔工作了30年,成为首任首席技术官,并推动了USB和Wi-Fi等关键行业技术的开发。他是80486处理器原型的架构师,领导了14种不同微处理器的开发项目,并在酷睿和至强产品系列的成功中扮演了关键角色。

    时间:2021-01-14 关键词: CEO Intel

  • Mobileye的创新科技与方案将助力自动驾驶汽车畅行世界、惠及大众

    Mobileye的创新科技与方案将助力自动驾驶汽车畅行世界、惠及大众

    Mobileye 最新进展:自动化众包高精地图技术、全新的激光雷达系统集成芯片(SoC)、软件定义雷达以及在四个新国家开展自动驾驶汽车测试 ● 自动化、全球性的自动驾驶汽车(AV)高精地图技术使 Mobileye 得以扩展其自动驾驶测试车队。新测试汽车有望于 2021 年年初在底特律、东京、上海、巴黎上路行驶。同时,待监管审批通过后还将推广至纽约。 ● 英特尔将利用其 XPU 战略以及在硅光子领域的专长和制造能力,为 Mobileye 打造一套自动驾驶汽车激光雷达系统集成芯片(SoC),并于 2025 年投入使用。 ● Mobileye 计划开发一款专门用于自动驾驶汽车的软件定义雷达(Software-defined Radar)。 据 Mobileye 透露,使用其现有技术的汽车已经在全球绘制了近 10 亿公里的高精地图,每天绘制的高精地图里程超过 800 万公里。 2021 年 1 月 11 日,耶路撒冷——今日,英特尔子公司 Mobileye 介绍了其在全球范围内为实现“挽救生命”的使命所采取的战略和技术。在这周的国际消费电子展(CES 2021)上,英特尔公司高级副总裁、英特尔子公司 Mobileye 总裁兼首席执行官 Amnon Shashua 教授将通过两场主题演讲阐述 Mobileye 将如何制胜全球自动驾驶行业。 Amnon Shashua 教授手持 Mobileye 全新的激光雷达系统集成芯片(SoC) Shashua 教授表示:“得益于英特尔的支持和 Mobileye 三位一体的战略布局,我们能以前所未有的速度进行规模化扩展。从设计之初,我们所有的计划都旨在实现地域和经济层面的可扩展性,而今天的宣布很好地展示了我们的创新是如何支持这一战略的执行和落地的。” Mobileye 三位一体的战略布局 在介绍 Mobileye 三位一体的战略布局时,Shashua 教授将解释提供一种比人类驾驶员能力强几个数量级的传感解决方案的重要性。以及包括路网信息管理™(REM™)高精地图技术,基于规则的责任敏感安全模型(RSS)驾驶策略,以及基于全球领先的摄像头、雷达和激光雷达技术打造的两个独立、真正冗余的传感子系统在内的 Mobileye 技术是如何帮助如此先进的解决方案变为现实的。 Mobileye 的方法同时解决了技术和商业层面的规模化挑战。降低技术成本并使先进技术与未来自动驾驶汽车市场的需求保持一致对于实现全球范围的规模化扩展至关重要。Mobileye 的解决方案以平价摄像头作为主传感器,同时利用一个真正冗余的辅助传感系统,实现了至少超过人类驾驶员三个数量级的关键安全性能。相较于融合系统,使用真正冗余™(True Redundancy™)能够使 Mobileye 以更快的速度和更低的成本验证这一安全性能水平。 全新的雷达和激光雷达技术 Shashua 教授表示,按照 Mobileye 的设想,未来的自动驾驶汽车将实现增强的基于无线电以及光的检测和测距传感能力,这是进一步提高道路安全标准的关键。Mobileye 和英特尔正在推出创新的解决方案,这些解决方案不仅将为自动驾驶汽车提供先进的雷达和激光雷达功能,同时还对算力和成本效率进行了优化。 Mobileye 全新的激光雷达系统集成芯片(SoC) 正如 Shashua 教授在“引擎盖下的秘密(Under the Hood)”主题演讲中所述,Mobileye 的软件定义成像雷达拥有 2304 条通道,100dB 的动态范围和 40dBc 的旁瓣电平,使雷达能够构建一个足以实现支持自动驾驶策略的传感状态。凭借完全数字化和先进的信号处理技术、多种扫描模式、丰富的原始探测和多帧跟踪,Mobileye 的软件定义成像雷达代表着自动驾驶汽车在架构上的范式转变,从而实现了性能上的重大飞跃。 此外,Shashua 教授还将介绍英特尔专业硅光子学加工厂如何将有源和无源激光元件置于硅芯片上。谈到将于 2025 年推出的激光雷达系统集成芯片时,Shashua 教授表示:“光子集成电路(PIC)是一项变革性的技术。它有 184 条通过光学原理进行移动的垂直线,有能力制造这种电路的工厂是极少数的,这意味着英特尔在激光雷达制造领域具备显著优势。” 全球高精地图助力自动驾驶汽车畅行世界 在主题演讲中,Shashua 教授还将介绍 Mobileye 众包高精地图技术的发展思路。 Mobileye 独特且前所未有的技术可以以每天近 800 万公里的速度自动进行高精地图绘制,迄今为止,Mobileye 已经完成了近 10 亿公里的高精地图绘制。与其它高精地图绘制方法不同的是,Mobileye 的解决方案更加注重语义细节,而这些细节对于自动驾驶汽车理解和结合具体境况考虑环境的能力来说至关重要。 想要真正实现“挽救生命”的愿景,自动驾驶汽车必须要广泛普及并畅行各地。而 Mobileye 的自动化高精地图技术通过借助近 100 万辆配置了 Mobileye 高级驾驶辅助系统(ADAS)的汽车的力量令一切成为可能。 为了展示 Mobileye 自动化高精地图技术带来的可扩展优势,Mobileye 将开始在四个新的国家开展自动驾驶汽车测试。Mobileye 将直接把其自动驾驶汽车交给当地的客户支持团队进行测试,而无需派遣专业工程师前往这些新测试地点。在完成所需的安全培训后,这些自动驾驶汽车即可投入行驶。2020 年,Mobileye 在慕尼黑和底特律就已经采用了这种方法,仅用了几天时间就让自动驾驶汽车得以上路行驶。

    时间:2021-01-12 关键词: Mobileye Intel

  • 艾伯维利用英特尔人工智能技术改善科研翻译

    艾伯维利用英特尔人工智能技术改善科研翻译

    全球生物制药公司艾伯维(AbbVie)正在利用人工智能和自然语言处理技术改善科研翻译的协作和搜索能力,从而为患者找到新的治疗方式。 “我们开发了 Abbelfish 机器翻译(Abbelfish Machine Translation)和艾伯维搜索(AbbVie Search)两项服务来加速、拓展我们的科研工作,从而缩短为患者发现革命性药品及疗法的时间。我们正在寻求通过全新的方法,利用英特尔技术,在整个公司范围内大规模部署这些技术。” ——Brian Martin,艾伯维人工智能主管 艾伯维在全球范围内拥有 47,000 名员工,服务于来自 175 个国家的超过 3000 万名患者。由于各地的团队需要同时在诸多项目上进行协作,艾伯维的研究人员需要能够访问各种语言版本的关键数据。但市场上的翻译公司无法为他们提供针对高度专业化的生物医学文本的准确翻译,因此研究人员很难协作并访问最新的研究成果。事实上,这也是整个科研领域中把英语作为第二语言的研究人员所面临的共同挑战。为了解决这一问题,艾伯维利用人工智能技术创建了专门针对其所在领域的翻译和搜索工具。 Abbelfish 机器翻译是一项语言翻译服务。这项服务起初支持德语到英语的翻译,后来扩展到西班牙语、意大利语、法语、葡萄牙语、俄语、汉语和日语。Abbelfish 服务每年翻译超过 100 万个文本,每分钟最多可同时执行 10 项翻译任务。 艾伯维搜索是一个基于 BioBERT 变换器模型的针对生物医学科研领域的问答式搜索工具。研究人员可以向艾伯维搜索提问,例如“成人中最常见的人类冠状病毒是什么”,而系统会快速回复答案“HCoV-OC43”,并提供一系列相关的科学文章和临床记录。 艾伯维利用英特尔技术加快 Abbelfish 机器翻译和艾伯维搜索的推理速度。借助第二代英特尔® 至强® 可扩展处理器和包含英特尔® oneAPI 深度神经网络库的面向英特尔架构优化的 TensorFlow,艾伯维将 Abbelfish 加速了 1.9 倍。通过利用第二代英特尔® 至强® 和英特尔® OpenVINOTM 工具包,艾伯维搜索加速了 5.3 倍。

    时间:2020-12-25 关键词: AI Intel

  • 采用英特尔处理器 三星 5G SA 核心网速率达 305 Gbps

    采用英特尔处理器 三星 5G SA 核心网速率达 305 Gbps

    随着通信网络的持续转型,需要一个基于服务的全新网络架构的 5G SA(独立组网)核心网,以在增强的移动宽带、超可靠低时延通信以及物联网中充分释放 5G 的全部潜力。在这种情况下,核心网的整体性能和吞吐量的提升对于提供更加沉浸式的 5G 体验至关重要。 三星电子有限公司和英特尔在近日宣布了一项在 5G SA 核心网上实现的重大性能突破。三星采用第二代英特尔® 至强® 可扩展处理器和具有增强型动态设备个性化(DDP)的英特尔® 以太网适配器 E810,其 5G SA 核心网的数据处理能力达到了每台服务器 305Gbps。两家公司已经在启用了商用功能的移动网络环境中验证了这一性能。 英特尔公司副总裁兼有线与核心网部门总经理 Alex Quach 表示:“向 5G SA 核心网的转型对于释放 5G 的潜力至关重要。英特尔与三星一起达成的这个成就体现了强大的行业合作和创新技术能够提升性能、加快转型,并为新的网络和边缘服务铺平道路。” 三星和英特尔实施了一个简化的系统配置并优化了数据包处理,大幅提升网络性能,实现每台服务器 305Gbps 意味着,每台服务器能够同时承载超过 20 万个用户直播标准清晰度视频。

    时间:2020-12-25 关键词: 三星 Intel

  • Intel发布二代傲腾SSD P5800X

    Intel发布二代傲腾SSD P5800X

    Intel虽然已经将NAND闪存业务卖给SK海力士,但除了继续执行既有的技术、产品路线图,更实惠大力发展傲腾(Optane),包括混合固态盘、数据中心固态盘、持久内存等。 今天,Intel就发布了基于新一代傲腾存储介质的数据中心固态盘SSD P5800X,号称同类产品世界最快,而且在寿命、延迟等方面依旧轻松秒杀NAND闪存。 傲腾一直是Intel引以为傲的黑科技,最初与美光共同研发,但是双方已经和平分手,Intel继续坚定地独自大力推动傲腾技术。 相比于传统NAND闪存,傲腾介质拥有扩展性好、随机性能更佳、延迟超低、寿命超长等特点,尤其适合数据中心这样的应用领域。 经过多年发展,Intel傲腾已经形成了庞大稳固的生态圈,云服务商、存储服务商、存储软件商、大型企业等合作伙伴可以拉出一长串名单,包括国内的阿里云、百度云、腾讯云、金山云、青云、平安云、人大金仓、新华三、浪潮、中兴、联想、快手、中国航信、海鑫科金、宝信软件、星环科技、东方国信等等。 第一代基于傲腾的数据中心级SSD P4800X还是2017年3月发布的,PCIe 3.0 x4扩展卡样式,容量只有375GB、750GB,4K随机读写性能高达55万IOPS、50万IOPS,延迟只有60-200微秒,终生写入量12.3PB。 而新一代的傲腾SSD P5800X采用2.5英寸U.2形态,容量可选400GB、800GB、1.6TB、3.2TB,支持PCIe 4.0,持续读写性能最高7.2GB/s、6.2GB/s(是上代的3倍),4K随机读写性能最高都是150万IOPS,4K 70/30混合随机性能最高180万IOPS(是上代的3倍),512bit随机读取性能高达460万IOPS,4K随机读取延迟低于6微秒、随机读写延迟低于25微秒(比上代提升40%)。 除了读写性能指标让NAND闪存固态盘望尘莫及,傲腾SSD P5800X的寿命也异常惊人,达到了不可思议的每天100次全盘写入,比上代的60次增加了67%。 相比之下,如今的TLC/QLC闪存固态盘写入寿命都非常刚,一般每天不到1次,经过优化加强的企业级产品也只能做到每天3次左右。 混合读写性能是傲腾的拿手好戏之一。NAND闪存在读取方面表现更好,而随着写入负载比例的加大,性能会持续走低,最终能丢掉一半的速度。 但是傲腾相当黑科技,从纯读取向读写混合转变的时候,性能会不降反升,在最典型的70%读取、30%写入混合负载中达到最高水平,此时性能可以接近200万IOPS,要比AND闪存高出足足3.7倍。 这种状态一直能持续到30%读取、70%写入,而即便在100%写入的时候,性能也会和100%读取基本不相上下。 另外,傲腾强大的读写能力,可以更轻松地喂饱数据中心里的100GbE(十万兆)网络,效率是NAND闪存的16-35倍。 如果使用PX5800,只要最小的400GB容量,2块随机读取,或者3块随机写入,或者3块混合读写,都能吃满100GbE网络。 而使用传统闪存,比如说D7-P5600 ,就得动用大容量的3.2TB,还得4块随机读取,或者13块随机写入,或者7块混合读写,才能让100GbE网络不会闲置。 此外,傲腾固态盘的QoS稳定性也是相当惊人,可以更精准地预测其持续表现,可以是传统闪存的最多66倍。 Intel没有提及傲腾SSD P5800X的出货时间,但肯定已经出样给客户,预计明年上半年批量供货。

    时间:2020-12-17 关键词: 傲腾 Intel

  • 1000倍提升!未来芯片、计算、编程将这样发展

    1000倍提升!未来芯片、计算、编程将这样发展

    “未来早已到来,只是分布不均。” ——William Gibson 如何让算力在低功耗的情况下提升1000倍?乍一听似乎有些荒唐,但实际上利用量子叠加和量子纠缠概念的量子计算早已步入所有人的视线之中,看似遥远而又科幻的目标其实离现实越来越近。 英特尔作为一家围绕数据为中心的企业,目前正在逐步强化异构计算方面对算力和功耗的优化。实际上,英特尔的目标是让每个人都能获得百亿亿级次计算,英特尔研究院正在实现这一目标。 英特尔这家公司对“5”这个数字似乎情有独钟,不仅从5年前就开始布局xPU+oneAPI的软硬件生态超异构计算,还在近期展示了5年后的CPU路线图。但事实上,英特尔还规划了5年、十几年甚至更久才能达成的超前沿技术项目,充分释放数据的价值。 在近期的英特尔研究院开放日上,英特尔“秀”出其超前沿的技术,目标是追求1000倍提升。英特尔实现1000倍提升主要是聚焦在集成光电、神经拟态计算、量子计算、保密计算和机器编程五大领域。 需要注意的是,虽然英特尔在明码数字上标注的是追求1000倍提升,但实际上神经拟态计算早已超过千倍提升,机器编程的提升更是从0到无穷大。 本次展示新技术既是一种布局,也是一种互补,将与现行的异构计算相辅相成,最终实现新技术架构和传统架构依据不同应用实施。 尺寸小1000倍:集成光电 英特尔首先展示的1000倍提升的技术是集成光电,主要目的是将光科学与大规模芯片生产的成本效益相结合,这也是业界首次被提出来的概念。利用光互连I/O直接集成到服务器和封装中,可以对数据中心进行革新,实现1000倍提升,同时降低成本。 根据英特尔的介绍,虽然英特尔研究院经过几代的改进,从单链路多I/O协议架构演进为Thunderbolt和USB Type-C电气I/O,性能性能有了显著提升,但电气性能扩展速度较慢仍然较慢,因此英特尔探索是否通过光互连解决这一挑战。 英特尔认为现在是从电气I/O迁移到光互连I/O的重要拐点,究其原因是电气性能正在快速逼近物理极限,另外电气性能扩展的速度跟不上带宽需求的三年翻一番的需求,这就会产生I/O功耗墙,I/O功耗会逐渐高于所有现有插接电源导致无法计算。 光互连技术主要涉及五个技术要素,包括光产生、光放大、光检测、光调制、CMOS 接口电路和封装集成,而英特尔近期在几大技术构建模块上实现重大创新,并展示了集成光子学原型。 1、光调制:传统硅调制器体积巨大,占据空间过多,因此IC封装成本很高。英特尔开发了微型微射线调制器,其体积缩小1000倍,因此在服务器封装上可以放置几百个这种器件。 2、光探测:几十年来,业界一直认为硅几乎不具备光探测能力,但英特尔证明事实并非如此。英特尔开发了全硅光电探测器,这项技术可以降低成本。 3、光放大:如若想要降低总功耗,集成半导体光学放大器是不可或缺的技术,在此方面英特尔推出了集成半导体光学放大器。 4、协同集成:集成非常重要,不仅可以降低成本还可以优化功耗,也是集成光电最核心的工艺。英特尔主要利用3D堆叠CMOS电路与光子直连,这主要凭借的是英特尔强大的封装集成技术。 根据英特尔的介绍,目前还没有其他公司展示过将集成激光器、半导体光学放大器、全硅光电探测器和微型环调制器集成在一个与CMOS硅紧密集成的单个技术平台上的解决方案。 实际上,这得益于英特尔在硅光子上的长久研发,早在2016年,英特尔就推出了一款全新的硅光子产品“100G PSM4”能够在独立的硅芯片上实现近乎光速的数据传输,目前英特尔已经为客户提供超过400万个100G的硅光子产品。 笔者认为,行业已经意识到“以光代电”的重要性,行业对于光的高带宽、抗干扰特性有了越来越深的理解。英特尔英特尔展示的这一整套方案,最为重要的便是集成,也是最大的突破。 英特尔中国研究院院长宋继强表示,集成光电主要突破和进展就是把很多原来分离的尺寸比较大的模块,用新的技术集成到一起去了。值得一提的是,这种技术目前已经开始应用了,已有客户板内已开始利用这种设计。 速度功耗提升1000倍:新型计算 英特尔在高效计算方面追求1000倍提升主要依托三种前沿计算技术,分别是神经拟态计算、量子计算和保密计算,这三种方式分别拥有不同的专长: 1、神经拟态计算:计算和内存混合的全新架构 神经拟态计算灵感来源于大脑,英特尔用无人机和玄凤鹦鹉进行举例说明:无人机板载处理器要消耗18W的电力,利用最先进的AI技术,无人机只能勉强以步行速度通过预先编程在几扇门间自主飞行。反观玄凤鹦鹉,大脑仅仅2克重,能耗相当于50mW,体重比无人机轻20倍,能耗低350倍,但却可以顺利完成飞行、觅食甚至学习人类语言的能力。 英特尔方面则在2015年开始以现代神经科学理解作为灵感开发了一种新型架构,这种架构可以利用标准计算+并行计算+神经拟态计算的方式进行不同计算的分工。 神经拟态计算相比传统计算机架构来说,完全模糊了内存和处理之间的界限,处理就发生在信息达到之时,如同大脑中的神经元一样。换言之,就是把计算和内存混合在一起的一种全新架构模式。 2017年,英特尔发布了首款神经拟态芯片“Loihi”,这款芯片没有片外内存接口,通过二进制脉冲信息和低精度信号直接在芯片上计算,另外这款芯片还具有片上学习功能,远超目前所有芯片。2020年初发布,英特尔发布Pohoiki Springs 系统,该系统采用768个Loihi芯片,并包含1亿个神经元。 之后,英特尔成立英特尔神经拟态研究社区(INRC),目前已吸纳超过100个团体,拥有十几家500强企业成员,如埃森哲、空中客车、通用电气等。 根据本次会议上报告显示,INRC 已经发表了40 多篇经过同行评审的论文,其中许多论文中都记录了量化结果,证明这项技术能够带来有效的性能提升。 部分机器人工作负载显示,Loihi的功耗比传统解决方案低40-100倍;大规模PohoikiSprings系统上相比CPU实施方法,功耗降低45倍,运行速度快100多倍;Loihi还可以解决较难的优化问题,如约束满足和图形搜索,运行速度比CPU快100倍,但功耗比CPU低1000多倍。 值得一提的是,虽然英特尔研究院开放日的主题是围绕1000倍提升展开,但实际上对于神经拟态计算研究1000倍已经一个很低的标准了,某些情况下英特尔的能效和计算速度是超过千倍的。 宋继强强调,神经拟态计算的应用最适合的是在边缘,因为这项技术可以以很高的能效比去完成以前高功耗的GPU模型算法才能做的事。 另外,英特尔宣布联想、罗技、梅赛德斯-奔驰和机器视觉传感器公司Prophesee加入英特尔神经拟态研究社区,共同探索神经拟态计算在商业用例上的价值。同时将在2021年第一季度,发布下一代“Lava”软件开发框架的开源版本,服务更多软件开发人员。 2、量子计算:自旋量子技术、低温控制技术、全栈创新助力构建商用量子计算机 量子计算作为全新的计算模式已经逐渐成为许多企业和国家的发展重点,这一词语已经时常刷屏,但具体该怎么理解呢? 英特尔用硬币对这个概念进行了解释:传统的数字计算需要把数据编码为二进制数字,只有0或1两种状态,就像硬币的正面和反面。而量子计算使用量子位,可以同时处于多个状态,就像一枚旋转中的硬币,可以同时是正面和反面。 2个纠缠的量子位就可以表示同时混合的4种状态,而n个量子位就可以代表2的n次方种状态——50个纠缠的量子位所获得的状态数量就将超过任何超级计算机。如果有300个纠缠的量子位,那能够同时表示的状态就比宇宙中原子的数量还要多。 英特尔此前一直强调的都是量子的实用性上,这是因为量子位非常脆弱,目前仅仅有几百或数千量子位是没有办法造出一台商用级量子计算机。英特尔的量子计算拥有自旋量子技术、低温控制技术、全栈创新的特点,为构建商用量子计算机提供了坚实的基础。 另外,英特尔推出了第二代低温控制芯片Horse Ridge II,这款芯片是相比2019年推出的第一代产品拥有更高的集成度,支持操纵和读取量子位态的能力,支持多个量子位纠缠所需的多个栅极电位的控制能力。 3、保密计算:联邦学习、完全同态加密让安全更进一步 在保密计算上英特尔主要依靠联邦学习和完全同态加密实现1000倍提升。既然算力被神经拟态计算和量子计算提升数千倍,背后隐含的是庞大的安全问题。英特尔认为,保密计算需要提供数据数据保密性、执行完整性和认证功能,防止机密泄露、防止计算篡改、验证软硬件真实性。 所谓联邦学习,主要是保护分属不同所有者的多个系统和数据。英特尔表示,在零售、制造、医疗、金融服务等许多行业,最大的数据集往往都被限制在多方手里的数据孤岛中。这阻碍了使用机器学习工具从数据中获得洞察。通过联邦学习,英特尔将计算进行了拆分,这样就可以用各方本地的数据训练本地的算法,然后将获取的信息发送至中央聚合站点,数据不共享,价值仍释放。 完全同态加密则是一种全新的加密系统,它允许应用在不暴露数据的情况下,直接对加密数据执行计算操作。该技术已逐渐成为委托计算中用于保护数据隐私的主要方法。 根据宋继强的介绍,具体的原理就是,原本明文的算法模型用同台加密的方法处理后,变成了一个1000倍大的数据流,将数据流训练后再返还为训练好的模型。很多情况下, 这一数据流最好扩大到万倍以上才拥有实用性。 但与此同时,内存存储、计算量、网络通讯都被放大了很多倍,这会导致开销增加,因此这一技术尚未广泛应用,未来新一代的硬件支持便可实用化。另外,英特尔希望普及这项技术,目前正在研究新的软硬件方法,并与生态系统和标准机构开展合作。 从0到无穷大倍的提升:机器编程 除了在硬件上的1000倍提升,英特尔还着重提出在机器编程效率上的提升。诚然,强悍的硬件必然能够获得出色的表现,但编码效率提升意味着更快的上市速度和更少的成本。而这种提升就不仅仅是用1000这种数字进行量化了,实际对于未来业界的帮助是无穷大的。 英特尔为此提出了机器编程的概念,AI的诞生使得各行各业都变得越来越自动化,而未来机器本身也将会为自己构筑程序。机器编程与机器学习的不同之处就是计算机可以自动编写软件的软件。 “机器编程”这一词在英特尔研究院和麻省理工学院联合发布的《机器编程的三大支柱》论文中首次提出,论文中认为机器编程的三大支柱是意图(Intention)、创造(Invention)和适应(Adaptation),开发机器编程的主要目的在于通过自动化工具提升开发效率。 根据英特尔的介绍,异构计算的到来,使得编码的难度越来越高,未来神经拟态计算、量子计算、保密计算成为主流也会使得编码越来越复杂。数据显示,全球78亿任重,只有2700万人会编写程序,占比不到1%。很多不懂得编程的农业、生物、建筑、医疗、金融等专家其实非常清楚地知道想要软件做什么,但市面又缺乏类似的软件。利用机器编程便可以让每个人都能创建软件,英特尔的愿望是将1%变为100%。 另一方面,数据显示程序员在编写程序时,50%的时间都用在Debug上。利用机器编程可以可以自动识别、分析、纠正bug,提高程序员2倍的开发效率。 文行至此,可能很多人会疑问编程人员是否会被替代,程序员是否会失业?根据英特尔的介绍,实际上机器编程不仅不会取代专业程序员,还会创造数千万到数亿个就业机会。这是因为,机器编程需要大量的数据基础,而这些专业数据仍然需要由专业程序员编写,因此高技能程序员需求将会持续增加,专业程序员写的程序越多,机器编程就更先进;对于不会编程的人员来说,只需向机器表达自己的想法就能创造相应的软件,可以降低行业准入门槛。 总结 “未来10年是架构创新的黄金10年”,宋继强表示,提出追求1000倍提升这一主题,是英特尔研究院设立项目目标提出的一个要求,最终将要追求千倍级的改变。 英特尔之所以强大的原因便是不断的研发和投入。此前,笔者曾经介绍英特尔正在布局超异构计算,并在硬件上拥有CPU、独立GPU、FPGA、eASIC、ASIC、VPU、内存和存储等,在软件上拥有统一开发平台oneAPI。 英特尔本次“秀”出的全新技术,都是需要5年甚至十几年才能实现的超前沿技术。英特尔此前曾经说过:“作为一家高科技公司,永远要站在最前端,看到别人看不到的东西,不断创新技术去抓住每一次增长的机会,同时也必须要有驾驭危机的能力。”通过布局全新产业,相信产业将会迎来新的变革。

    时间:2020-12-07 关键词: 量子计算 机器编程 Intel

  • 再添最强eASIC!Intel付得起xPU的巨额尾款吗?

    再添最强eASIC!Intel付得起xPU的巨额尾款吗?

    一波还未平息,一波再起,时隔一周,Intel继续扩张其xPU阵营! 上回,笔者说道Intel正在利用xPU+oneAPI的超异构计算的形式延续摩尔定律。所谓xPU即为CPU+GPU+FPGA+其他加速器的异构计算,体现在数据中心的实际产品便是Xeon可扩展处理器+Xe独立显卡+AGILEX/STRATIX FPGA+SmartNIC加速器+ Movidius VPU。针对xPU此前Intel发布了独立服务器GPU和oneAPI Gold。 实际上,Intel的FPGA远不是“单枪匹马作战”的单一产品,Intel在FPGA上其实是依次从FPGA、eASIC过渡到ASIC的全套解决方案,Intel称这种独特的方案为“定制逻辑连续体”,仅在FPGA上便是一个“小生态”。 11月18日,IFTD2020上,Intel发布首款用于5G、人工智能、云端与边缘的eASIC N5X(结构化ASIC),同时发布了最新的Intel开放式FPGA堆栈(Intel OFS),21ic中国电子网记者受邀参加此次发布会。 eASIC究竟是什么 FPGA和ASIC一直以来是半导体行业争论不休的话题,甚至也频繁出现一者将完全替代另一者的传言。事实上,两者的存在并不存在任何冲突。 诚然,ASIC在计算性能、功耗、可靠性、体积和制造成本上拥有一定优势。但从底层来说,其内核执行外的任何算法都是冻结的,因此这就需要在流片上市之前进行颇为耗时的设计和测试,并且一旦流片算法和逻辑电路后都是无法修改的。所以ASIC设计通常是定制化,目的明确的。从侧面来说,这就无形增加了前期的投入成本,即一次性工程费用(NRE)高,并且由于流片后无法修改所以不具备灵活性。 正因如此种种束缚,FPGA应运而生,可重复编程性加速了产品的上市时间,也因其自身的灵活性和适应性拥有了一席之地。不过FPGA相对ASIC来说,是利用数百万个逻辑单元换取这种便利性的,相比来说价格很容易昂贵。但并不能因此就绝对说FPGA比ASIC贵,ASIC的一次性工程费用贵,流片量如果太小绝对是成本更高的。 所以在现阶段,FPGA和ASIC是“分工明确”的,可编程FPGA主要针对实施与加速要求最苛刻的算法阶段,直到算法已经非常成熟、并且最终确立下来之后,ASIC便可大面积实施在硬件之中。 既然明白FPGA和ASIC的定位,那么这个eASIC究竟是什么?eASIC又名为结构化ASIC,简言之eASIC就是FPGA和ASIC的中间体,不过名字既然都只是ASIC加了e,相比来说还是更靠近ASIC的。 eASIC与ASIC最大的不同之处就在于在客户购买定制芯片后,还能够通过重新编程将芯片不同部分重新连接从而完成新的任务。客户可以使用FPGA创建设计将固定布局烘焙到单个设计掩模中,最终eASIC也将不再可编程,从而获得近似ASIC的功耗性能。市场中还存在eFPGA这种产品,当然在使用上则会更靠近FPGA,主要是将ASIC进行片上连接,此处不进行详细讲解。 业界最强大的eASIC 纵览Intel的eASIC之路,此前包括eASIC N2X/N3X/N3XS几种产品。而本次发布的eASIC N5X可谓是“天之骄子”,凝结了多项intel的创新成果,不负众望地成为了业界最强大的eASIC。这款产品继承了Agilex FPGA的硬核处理器系统、安全特性,支持Agilex FPGA用于管理启动、身份验证和防篡改特性的安全设备管理器,采用了Diamond Mesa SoC技术。 从参数来看,eASIC N5X使用了16nm制程,拥有8千万个ASIC门,拥有225Mb双端口存储器,32Gbps收发器,包含一个四核Arm Cortex-A53硬处理器。 从性能来看,eASIC N5X相比AgilexFPGA核心功耗降低了50%,不仅有效减小了散热,还支持客户在同样散热范围内提升性能;相比ASIC,eASIC N5X又拥有更低的总体拥有成本,因为这款产品可以加快产品上市速度并显著降低一次性工程费用。 这意味着什么?要知道,Agilex FPGA系列可是intel的“心头肉”,eASIC N5X的功耗就这么轻松超越了。Agilex FPGA是第二代使用异构FPGA chiplet架构的产品,这是一种将多种制程技术、功能甚至供应商集成到一种封装的技术。Agilex FPGA不仅采用了10nm SuperFin技术和改进的FPGA Hyperflex 架构,性能提升了高达 40%,功耗降低了高达 40%。其余的,两倍的数据速率,支持PCI Express Gen 5和CXL都能说明Intel对这款FPGA的厚望。 在设计方面,上文也有提及eASIC实际可以直接使用FPGA设计软件进行设计。Intel这方面的软件则是Quartus Prime,这款软件提供了功耗优化工具,并通过全面的设计套件帮助轻松提升工作负载性能。 除此之外,FPGA本身的RTL或硬件语言在入门难度上非常高,开发者也可在oneAPI一体化平台上简化CPU、GPU和 FPGA 的跨架构开发工作。oneAPI 支持使用Intel VTune Amplifier、Intel Advisor等工具进行软件开发。之前笔者也曾介绍过oneAPI,其Gold版本将在今年12月正式交付。 FPGA、eASIC、ASIC怎么抉择? Intel对于eASIC的定位是,比FPGA的单位成本更低、功耗更低,比标准单元ASIC的上市速度更快、一次性工程 (NRE) 费用更低。eASIC与ASIC都是定制类型的芯片,针对不同的应用场景,各有所长。当把FPGA可重复编程的功能去掉,可以获得更小的晶片尺寸,来实现低功耗和更低的成本。 FPGA、eASIC、ASIC的一个连续生命周期的产品组合又称为“定制逻辑连续体”,对于三种产品的定位分别是:FPGA拥有最快的上市速度和最高的灵活性;eASIC拥有出色的性价比,优化上市时间;ASIC拥有最高的性能和最低的功耗和成本。 对于不需FPGA可重复编程这种灵活性功能的客户来说,eASIC和ASIC都可以供客户选择。eASIC不会是低功耗或低成本的最佳选择,但它能帮客户实现从eASIC到ASIC的快速实现。FPGA、 eASIC和ASIC各有所长,客户可根据需求,如可重复编程、低功耗或低成本等功能来选择不同的产品。 实际上,eASIC早在2006年就已被名字同为eASIC的公司推出,intel至少在2015年就开始使用eASIC定制Xeon。直到2018年7月,Intel宣布收购小型芯片厂商eASIC,完善了FPGA到ASIC的过渡。 Intel的FPGA开发也开源了 在发布eASIC的同时,Intel也交付了第二代FPGA平台软件,这不仅让eAISC/FPGA开发速度更快,也让方便了软件、硬件和应用开发人员进行开发。这就是在本次最新发布的Intel开放式FPGA开发堆栈(下文简称“Intel OFS”)。 Intel OFS提供标准接口和API,并拥有可扩展的硬件和可访问的git源代码库的软件框架。主板开发人员、原始设计制造商和客户都可利用标准接口的统一基础设施开始FPGA硬件开发。应用开发人员可以通过基于Intel OFS的不同平台之间更强大的可移植性实现更高的开发回报。由于可以使用英特尔的开源和上游代码,领先的开源软件厂商不仅能根据现有的或新的结合提供CPU和GPU拓展支持,还能提供FPGA拓展支持,从而满足客户需求。 在上次发布的Xe独立显卡上,Intel优化了在Linux上的开发,实际上也是为了方便开源软件的开发。OFS亦如此,为Linux内核提供定制化的软硬件基础设施,解决了软硬件及应用开发人员面临的许多痛点,包括开发FPGA设计(“拿来与定制”)所需的模块化、可组合代码,以及开源上游代码,从而让开源分销商能够为第三方和专有Intel OFS平台提供本地支持。 Intel买得起异构计算的单吗? 行业著名芯片工程师、研究者曾表示,xPU的异构计算在布局之中时,面临“生态”这一课题,往往是10亿美元量级的尾款。面临这个问题的不仅是Intel也包括其他CPU、GPU、FPGA厂商。面对如此巨量的投入,Intel是否会有压力? 事实上,从五年前开始,intel就早已反复强调转型为以数据为中心的企业,并早已加大了这方面的投入和布局。目前,通过Intel推出的新产品来看,围绕数据为中心的便是六大技术支柱,体现在实际产品中便是xPU+oneAPI的软硬件生态超异构计算。 从财报上来看,2017财年Intel的总营收为628亿美元,2019财年intel总营收为710亿美元,实现了82亿美元的营收增长。特别是在2019财年Q3数据中心的营收业务首次与PC业务营收达到了持平,仅一季度就实现了95亿美元的营收。 反观Intel在2020年Q1-Q3的财报,数据中心业务基本上能够与与PC业务“五五开”。展望2020年全年,有望营收753亿美元,同比增长5%。 从Q1-Q3,Intel出货了第三代Xeon可扩展处理器、第二代傲腾持久内存、TLC 3D NAND固态盘、Stratix 10 NX FPGA、锐炬Xe MAX独立显卡……还在近期发布了Xe独立显卡架构、eASIC N5X…… 体现在财报上的总收入这一数字,是扣除了研发和其他花费的资金的,Intel这家公司在研发中的投入可以说是有目共睹,占比极大。所以在连续不断的xPU产线研发和发布新产品之中,仍然保持营收,说明intel至少目前是支撑的住异构计算这种巨额费用的。 另外,要拿下异构计算这座大山的确需要非常大的投入资金,但正因为intel是从五年前便已开始布下这个局,10亿美元量级的尾款其实早就化整为零了,用一个比喻形容,就是分期付款。 再反观整个行业,Intel是目前在异构计算上拥有最全产品线的,在硬件上拥有CPU、独立GPU、FPGA、eASIC、ASIC、VPU、内存和存储等,在软件上拥有统一开发平台oneAPI。可以说intel是最接近超异构计算的,假若这位巨头都消化不下10亿量级的尾款,试问还有哪家企业能挑起异构计算的重担? 不过,的确异构计算投入大、周期长,这不仅仅是Intel这一家企业的事,而是整个产业链所要考虑的事情。近两年,Intel积极合作,在国内市场也一直非常“走心”。Intel曾明确表示,在中国,发展产业生态最重要的一点,是要真正扎根于本土的市场特点和用户需求。 在异构计算和生态建设上,Intel的产线越来越丰富,更多异构计算生态产品值得期待。

    时间:2020-11-19 关键词: easic xpu Intel

  • Intel出售旗下电源芯片业务,联发科火速拿下

    Intel出售旗下电源芯片业务,联发科火速拿下

    日前,联发科发布公告称,将透过子公司立锜并购Intel旗下Enpirion电源管理芯片产品线相关资产,预计总交易金额约8500 万美元(约合人民币5.6亿元左右),交易完成日期暂定第四季,实际日期代相关法律程序完备后交割。 21ic家注意到,Enpirion电源管理芯片产品线早在2013年被FPGA厂商Altera收购,而后,2015年,英特尔收购Altera时一并收入囊中。 仅仅过去5年,英特尔就要剥离Enpirion电源管理芯片产品线,难道真得缺钱了? 官网显示,Intel Enpirion电源管理模组为DC转DC降压转换产品,为市场上较高端的解决方案,可整合电源管理所需元件,满足 FPGA、ASIC、CPU与其他半导体电源要求。 Intel收购Altera后,致力于将FPGA产品与自家CPU匹配整合,无疑,数据中心服务器市场将为FPGA产品发展带来广阔前景,但通信、工业等传统领域仍然是FPGA的主要市场。 Enpirion在电源领域拥有多项专有先进技术,是为FPGA、ASIC等半导体供电的理想产品。Altera当年收购Enpirion,正是看中了其与自身FPGA产品的匹配度,以给客户提供完整的方案,增加竞争实力。看来,此前Altera收购Enpirion后的产品整合要付诸东流了。 据收购方联发科表示,此次并购完成后,将拓展公司产品线,提供使用在FPGA、SoC、CPU、ASIC的整合式高频与高效率电源解决方案,瞄准企业级系统应用,以助扩大经营规模,提升经营绩效与竞争力。 21ic家以为,最近,英特尔在CPU业务上已频频延迟,竞争对手AMD却连连出击,或许,英特尔希望分拆非核心业务的Enpirion电源,来实现核心业务聚焦吧,毕竟CPU才是英特尔的看家主业。 但是,英特尔确实需要好好消化收购Altera后带来的新业务整合,因为,AMD刚刚宣布收购了另一家FPGA厂商赛灵思,同样的赛道上,英特尔已经不是唯一的选手了。

    时间:2020-11-17 关键词: 联发科 电源 Intel

  • 为H3C、腾讯插翅腾飞!intel这次真的让人直呼Yes

    为H3C、腾讯插翅腾飞!intel这次真的让人直呼Yes

    多次自我突破的摩尔定律,几番“压榨”下,虽说有望回归两年一更新的频率,但还是有很多人感叹“廉颇老矣”。不过事实上,摩尔定律在提出之时,就在论文的第二页指明了摩尔定律失效的前路,这就是电子行业所追捧的“异构计算”,intel现称之为XPU(CPU+GPU+FPGA+加速器)。 材料受到了限制,所以才有了电化学镀铜和机械平面化的双镶嵌结构;物理受到了限制,所以才有了金属栅极和高K电介质;制程受到了限制,神说“要有光”,所以才有了光刻技术……回溯1965年,intel的创始人戈登·摩尔提出了改变世界的摩尔定律至今已经自我突破了三次瓶颈。 虽然几经放缓,intel已让其重新回归两年一更新。但实际上,我们仍然不知道1nm节点后的名字,这一迷之领域仍是纸上谈兵的阶段。反观登纳德缩放比例定律和阿姆达尔定律也基本进入瓶颈期,现在正是异构计算,即加速计算的时代。 今年4月,intel提出XPU+oneAPI的超异构计算的概念,即通过CPU、GPU、FPGA和其他加速器的混合式架构,配合统一开发平台oneAPI进行软硬的有机结合方式进行超级加速计算。同期,全新的计算架构Xe被一并提出,并在今年8月正式宣布Xe图形架构下的几款独立显卡。 时至今日,大势已至,intel正式“亮刃”,拔剑反复打磨的“干将和莫邪”,尽数展示了intel一直遵循戈登·摩尔论文的成果。11月11日,intel召开“XPU和软件发布会”,发布了独立服务器GPU,并宣布将于今年12月正式交付oneAPI Gold版本,21ic中国电子网记者受邀参加此次发布会。 硬件:支持Linux的独立服务器GPU 手游作为可以随手畅玩的一种极佳消遣方式,逐渐成为现代人放松的好方法。任何技术参数都是口说无凭,直接看intel发布的这款服务器GPU到底有什么神奇之处。 根据intel的介绍,新华三(H3C)XG310是一款云服务GPU,在相比传统卡3/4的长度(全高x16 PCle 3.0)下,封装了4颗intel服务器GPU。典型双卡系统之中,可支持120个Android游戏并发用户,而这一数字最高甚至可以扩展到160个并发用户,实际数量取决于具体游戏和服务器配置。 值得一提的是,在使用至强(Xeon)可扩展处理器下,即使不扩展服务器数量,可直接扩展显卡容量,在每个系统上支持更多流和订阅用户,并且同时实现较低的总体拥有成本(TCO)。换言之,只需要两张GPU,无需再单独购置服务器,就多能满足120个玩家实时连线游戏的任务。 数据显示,2017至2022年视频直播将增加15倍、游戏流量将增加9倍,到2022年视频将占全球IP流量的82%,而Android占据了全球移动设备的74%,intel正是看重了这一重大转变因此首次发布了其数据中心独立图形显卡intel Server GPU。 这是一款基于Xe-LP微架构的高密度、低延时独立GPU,而本款产品的特殊之处在于除了瞄准了视频和游戏渲染应用场景下的数据中心,更加优化了对Linux操作系统的支持,使得不同操作系统之间代码复用成为了可能,也使得这款独立GPU注定能够成为Android游戏云服务的新宠。 参数上,intel Server GPU配备128-bit渲染管线(128-bit wide pipeline)和8GB LPDDR4 专用板载低功耗显存。 开发上,开发人员可利用目前Media SDK中的通用API,这一API也将于明年迁移到oneAPI视频处理库(oneVPL)当中。 架构上,不仅是本次推出的新品,整个Xe产线都将全线优化Linux上的开发。通过intel给出的intelServer GPU的Android云游戏架构上,这款面向数据中心的独立GPU在Linux OS(CentOS/Ubuntu)的容器和虚拟化上提供了更好的优化,扩展代码库在Linux上的支持。从架构上来看,游戏流服务将输入到intel Cloud Rendering(ICR)中;利用FFMPEG编译、3DMesa渲染输出声音;利用intel GPU UMD渲染视频;而Android 游戏的云端主机和Android容器将利用intel桥接技术连接。 据悉,目前intel正与诸多软件和服务合作伙伴合作,共同将intel服务器GPU推向市场,其中包括Gamestream、腾讯和Ubitus。 腾讯云游戏副总经理方亮表示:“intel是我们安卓云游戏解决方案上非常重要的合作伙伴。intel至强可扩展处理器和intel服务器GPU,打造了一个高密度、低时延、低功耗、低TCO(总拥有成本)的解决方案,让我们能够在每台双卡服务器上生成超过100个游戏实例,诸如《王者荣耀》、《传说对决》。” 笔者认为,此款云服务独立GPU在功耗上优化的非常彻底,不仅使用了独立显卡Xe架构中最为低功耗的Xe-LP,还利用LPDDR4作为显存进一步降低功耗。众所周知数据中心是耗电和发热大户,因此只有在提高密度和性能的架构下降低器件的功耗才能全面压低功耗。 另一方面,操作系统和软件正逐渐靠拢开源,开源也是造就流量增长的功臣之一。正因为瞄准的主要是Android的游戏和视频市场,因此在爆发式增长的流量下,无需扩充服务器,直接插独立GPU卡对于节约成本具有非凡的意义。 软件:oneAPI Gold正式登场 软件和硬件谁更重要?任何时候的答案都是“我都要”,特别是对电子工程师来说,软件硬件两手都要硬,产品亦如此,新发布的独立GPU亦如此。 讲起intel,oneAPI就是这家企业的一切的硬件的载体,也是intel不折不扣的“军师”。事实上,oneAPI早在“SuperComputing 2019”时就已放出测试版。经过无数的测试和功能完善,直到今天oneAPI Gold正式发布,并将于今年12月正式交付。 名为Gold的oneAPI实际上也是oneAPI的1.0的版本,这款软件正是intel连接CPU、GPU、FPGA和其他加速器的“钥匙”,是实现XPU必不可少的一环。就如intel的战略“水利万物而不争”一样,oneAPI包容着一切的硬件。 软件千千万,oneAPI到底有什么不一样?如果让笔者首推,一定是其直接编程的优秀开发体验,intel称之为DPC++(Data ParallelC++),用一个等式简单解释就是DPC++ =ISO C++ and Khronos SYCL。正因为语法接近CUDA,所以在学习曲线上oneAPI是极简的,上手难度很低。 另一方面,intel的统一、简化架构编程模型,开发者可以借助oneAPI针对要解决的特定问题选择最佳加速器结构,且无需为此重写代码。intel对此的愿景是能够提供毫不妥协的性能,不受限于单一厂商专用的代码构建,就能实现原有代码的集成。 在深度学习加速(intel DL Boost)方面,不仅支持PyTorch、mxnet、sklearn、NumPy、XGBoost,最近也获得了微软Azure和TensorFlow的支持;众多领先的研究机构、公司和大学也支持oneAPI。 在工具方面,无论是应对数据中心、IoT还是最新发布的独立显卡的渲染上,oneAPI都得心应手。 发布会上,intel表示oneAPI Gold工具包将于12月在本地和intelDevCloud上免费提供,同时还将提供包含intel技术咨询工程师全球支持的商业版本。intel还会将intel Parallel Studio XE和intel System Studio工具套件迁移到oneAPI产品中。 另外,intel隐式SPMD程序编译器(ISPC)将在oneAPI级别零之上运行。oneAPI级别零是为XPU提供硬件抽象层的API的集合,由intel创建,提供了底层的直接到硬件的接口,以供客户跨多种硬件平台进行编程。ISPC是oneAPI渲染工具包的已安装基础语言,该工具包支持大多数主流的视频工作室基于至强处理器的渲染场,并将支持基于Xe架构的GPU。 笔者认为,oneAPI Gold相比测试版已可以胜任XPU的艰巨任务,从工具的迁移和GPU使用的渲染工具箱的加入,使得独立GPU加入至强可扩展处理器架构中无需使用其他软件。另一方面,oneAPI也是与硬件是相辅相成的,软硬件的闭环系统成为intel坚不可摧的生态。 左手一个硬件,右手一个软件 intel的XPU宏图 intel早前就已强调,现在intel是忠于数据,围绕数据业务和客户痛点而前行的一家公司。如果说intel的“护城河”是 “六大技术支柱”(封装&制程,架构、内存&存储、互连、安全、软件),那么“城池”便是XPU+oneAPI的超异构计算。 晶体管耦合设计转向晶体管弹性设计、围绕CPU到围绕XPU、半导体硬件到半导体软硬件,我们既是历史的见证者也是创造者。笔者曾多次强调,一整套的产品都放在同一软硬件架构下,无论从性能上来讲,还是从稳定性、适配性、更替性上来说,均具天生优势。 在数据中心的XPU选择上,intel的不同级别定位产品,使得搭配更加丰富。从CPU上来说,intel的至强(XEON)可扩展处理器,命名上也采用了更加符合主流、直观易懂的“铜牌”、“银牌”、“金牌”、“铂金”的分级。 从FPGA上来讲,拥有最高密度、高性能的Stratix,高性能、低功耗的Agilex,中端主流的Arria,低功耗、成本敏感的Cyclone,低成本、单芯片的MAX。 从独立GPU上来讲,intel仍然拥有这样的定位,更加贴合不同应用的需求。 ● Xe-LP(低功耗):定位为PC和移动平台最高效架构,主要使用LPDDR再次进行功耗的压缩。目前已在8月发布Xe DG1,近期发布了第11代intel酷睿移动处理器集成的锐炬®Xe显卡和intel锐炬®Xe MAX独立显卡。 ● Xe-HP:定位为数据中心级、机架级媒体性能架构,能够提供GPU可扩展性和AI优化,Xe HP将于明年推出。涵盖了从一个区块(tile)到两个和四个区块的动态范围的计算,其功能类似于多核GPU。 ● Xe-HPG:定位为专用于游戏优化的微架构,技术参数上,添加了GDDR6的新内存子系统提高性价比,支持光线追踪。是利用Xe-HP的扩展性,结合了Xe-LP的微架构变体。Xe-HPG预计将于2021年开始发货。 ● Xe-HPC:定位为数据中心,正在开发之中。 从路线上来看,intel的独立GPU远不止Xe-LP这种低功耗产品,将会从入门级显卡扩展到高性能计算,而实施这种策略的核心是所有系列产品能够实施同一套代码库。 包容这一切的毋庸置疑就是oneAPI,通过CPU+GPU+加速器+FPGA,便是标量+矢量+矩阵+空间的全方位计算。 在摩尔定律日渐放缓的如今,其实摩尔所书写的未来还没有结束,XPU+oneAPI就将是最好的见证。

    时间:2020-11-15 关键词: oneapi xpu Intel

  • 英特尔加速实现XPU愿景: 发布oneAPI Gold版本和英特尔服务器GPU

    英特尔加速实现XPU愿景: 发布oneAPI Gold版本和英特尔服务器GPU

    英特尔公司今日宣布多项重要的技术进展,这也是英特尔多年来一直致力于通过统一的软件体验打造跨架构解决方案的又一里程碑。其中,英特尔® oneAPI Gold工具包将于今年12月正式交付;英特尔软件栈推出新功能,作为公司软硬件联合设计方法的一部分。同时,英特尔正式发布其首款数据中心独立图形显卡。该服务器GPU基于Xe-LP微架构,专为高密度、低时延的安卓云游戏和流媒体服务而设计。 英特尔高级副总裁、首席架构师兼架构、图形与软件部门总经理Raja Koduri表示:“今天是英特尔oneAPI和XPU宏大计划的重要时刻。随着oneAPI Gold版本的发布,开发者编程体验将更加丰富,oneAPI不仅拥有开发者熟悉的CPU编程库和工具,也包含标量-矢量-空间这种混合架构的编程库和工具。同时,我们还推出了基于Xe-LP微架构的首款数据中心GPU,以满足快速增长的云游戏和流媒体市场需求。” 重要性:随着世界进入到数十亿智能设备的时代,数据呈指数级增长,需要将重心从单独的CPU转移到跨CPU、GPU、FPGA和其他加速器的混合架构,英特尔将其称为“XPU”愿景。英特尔®服务器GPU的推出是英特尔在XPU时代扩展产品组合的最新一步。 这个计算时代也需要全面的软件栈。通过英特尔oneAPI工具包,开发者能够使用一种通用、开放且基于行业标准的编程模型访问英特尔XPU。这不仅能够释放底层硬件的性能潜力,同时能降低软件开发和维护成本,并且在部署加速计算方面,英特尔® oneAPI工具包较在专用的、受限于特定厂商的方案风险更低。 英特尔推出oneAPI Gold工具包:英特尔oneAPI行业计划在SuperComputing 2019大会上首次提出,这是英特尔为实现统一、简化的跨架构编程模型所提出的愿景:能够提供毫不妥协的性能,不受限于单一厂商专用的代码限制,且能实现原有代码的集成。借助oneAPI,开发者可以针对他们要解决的特定问题选择最佳的加速器架构,且无需为新的架构和平台再次重写软件。 英特尔oneAPI工具包充分利用了先进的硬件性能和指令,如用于CPU的英特尔®AVX-512(高级矢量扩展)和英特尔®深度学习加速(英特尔® DL Boost),以及XPU独有的功能。oneAPI工具包基于经受过长久考验的英特尔开发者工具,为开发者提供熟悉的编程语言和标准,同时与现有代码保持完全的连续性。 今天,英特尔宣布,英特尔oneAPI Gold工具包将于12月在本地和英特尔DevCloud上免费提供,同时还将提供包含英特尔技术咨询工程师全球支持的商业版本。英特尔还会将英特尔®Parallel Studio XE和英特尔®System Studio工具套件迁移到oneAPI产品中。 此外,英特尔DevCloud平台可供开发者在各种英特尔架构上测试代码和工作负载,现已增加了新的英特尔®锐炬® Xe GPU硬件。英特尔锐炬Xe MAX 图形显卡现在也可供公开访问;同时,Intel Xe -HP已开放给特定的开发者使用。 oneAPI得到了业界的支持,近期微软Azure和谷歌的TensorFlow已经宣布支持oneAPI;众多领先的研究机构、公司和大学也支持oneAPI。 图注:oneAPI生态合作伙伴 除此之外,伊利诺伊大学香槟分校的贝克曼高级科学技术研究所今天宣布,将建立一个新的oneAPI卓越中心(CoE)。他们正在使用oneAPI编程模型将生命科学应用程序NAMD扩展到其他计算环境。NAMD能够模拟大型生物分子系统,正在帮助解决诸如COVID-19这样的全球性挑战。这个卓越中心将和研究GROMACS的斯德哥尔摩大学(SERC)卓越中心,以及海德堡大学(URZ)卓越中心一道,共同研究如何为其它厂商的GPU提供oneAPI支持。 关于英特尔全新服务器GPU:通过首款面向数据中心的独显产品,英特尔在增强云游戏与媒体体验方面进一步扩展了丰富的平台级创新。利用英特尔®至强®可扩展处理器与全新英特尔服务器GPU的组合,加之开源和授权的英特尔软件组件,即可以较低的总体拥有成本(TCO)1,为安卓云游戏以及OTT实时视频直播的高密度媒体转编码提供高密度、低时延的解决方案。 英特尔服务器GPU采用英特尔能效最高的图形架构——英特尔Xe-LP微架构,拥有低功耗、独立片上系统设计,并配备128比特管道和8GB专用板载低功耗DDR4显存。 图注:英特尔服务器GPU 通过将英特尔服务器GPU和英特尔® 至强® 可扩展处理器强强联合,服务提供商可在不改变服务器数量的情况下,单独扩展显卡容量,以在每个系统上支持更多流和订阅用户,并同时实现较低的总体拥有成本(TCO)。通过新华三XG310 X16 PCIe3.0 GPU扩展卡——在3/4长、全高尺寸内封装四颗英特尔服务器GPU芯片,即可在一个典型双卡系统中支持超过100个安卓云游戏并发用户。这一数量最高可扩展至160个并发用户,实际数量取决于具体的游戏和服务器配置2。开发人员可利用目前Media SDK中的通用API,这一API也将于明年迁移到oneAPI视频处理库当中。目前,英特尔正在与包括Gamestream、腾讯和Ubitus在内的诸多软件和服务合作伙伴合作,共同将英特尔服务器GPU推向市场。 图注:新华三XG310 PCIe GPU扩展卡 腾讯先游云游戏助理总经理方亮表示:“英特尔是我们安卓云游戏解决方案上非常重要的合作伙伴。英特尔至强可扩展处理器和英特尔服务器GPU,打造了一个高密度、低时延、低功耗、低TCO的解决方案,让我们能够在每台双卡服务器上生成超过100个游戏实例,诸如《王者荣耀》、《传说对决》。” 基于Xe-LP微架构的英特尔服务器GPU目前正在发货。与近期推出的英特尔®锐炬® Xe MAX独显一道,该GPU将随着英特尔Xe架构产品和软件计划的不断深入发展进一步为全球用户提升视觉计算体验。 英特尔®图形软件更新:英特尔将GPU从入门级图形显卡扩展到高性能计算(HPC)的核心策略之一,就在于实施同一套代码库。为了实现这一目标,英特尔的软件堆栈现在支持多代图形显卡,包括最近发布的第11代英特尔®酷睿™移动处理器集成的锐炬Xe显卡和英特尔锐炬Xe MAX独立显卡。扩展代码库以支持Linux更为普遍的数据中心产品,是可扩展的Xe架构策略的下一个关键步骤。英特尔对Linux驱动程序进行了优化,将重点放在操作系统之间的代码重用,并进一步关注Linux 3D性能,目前提供了三个经过充分验证和集成的发行版堆栈。 英特尔今天宣布,英特尔创建了Project Flipfast来提升在Linux操作系统上的游戏体验。Flipfast栈可以允许终端用户在虚拟机上运行图形应用,同时通过虚拟机和主机之间的零拷贝共享来保持本机GPU性能和主机集成完整性。Flipfast栈驱动器可提升游戏性能,该技术将可直接用于数据中心游戏流应用程序。 英特尔今天还宣布,英特尔®隐式SPMD程序编译器(ISPC)将在底层硬件接口oneAPI零级别(Level Zero)之上运行。 oneAPI零级别是整个硬件抽象层,为oneAPI平台中的设备量身定制,提供底层的、直接到硬件的接口。 由oneAPI支持的ISPC是C编程语言的一种变体,支持单程序、多数据编程,用于在英特尔CPU上加速英特尔®Osray光线追踪引擎。英特尔为ISPC增加了Xe支持,以无缝加速英特尔oneAPI渲染工具包组件(如Osray)。 下一步计划:11月12日至13日,在线上举行的oneAPI开发者峰会上,创新者、研究人员和开发人员将展示40个使用oneAPI的合作和项目。主题涉及从COVID-19的药物再利用测试,到作物产量预测等等。在本周开始的SuperComputing 2020上,英特尔与业界领袖和研究机构将通过主题演讲、技术会议、炉边对话、演示和其他活动,重点介绍oneAPI应用和英特尔oneAPI工具。有关英特尔在SuperComputing 2020上活动的完整信息,请访问intel.com。 英特尔oneAPI和图形软件栈的更新,以及英特尔服务器GPU的推出,标志着英特尔向XPU架构时代迈出里程碑式的一步。基于英特尔六大技术支柱创新以及异构架构,并通过oneAPI中基于开放标准的统一可扩展软件抽象层来实现,这些进展为更佳的体验奠定了坚实基础。 1总体拥有成本(TCO)分析基于英特尔内部研究。截至2020年10月1日的价格。分析假设标准服务器定价,GPU列表定价和软件定价基于预估的Nvidia软件许可成本,即5年内每年1美元。 2性能可能因特定游戏名称和服务器配置而异。欲参考英特尔服务器GPU平台评测的完整列表,请参阅Intel.com上的该页面。

    时间:2020-11-11 关键词: oneapi xpu Intel

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章

技术子站

更多

项目外包