半导体语音芯片,IC产业未来10年将面临技术挑战

半导体是现代科技文明的基石,「2022国际超大型集成电路技术研讨会」中,联发科资深副总经理陆国宏以「IC产业未来10年面临的技术挑战」为题,分享在数据量爆炸、运算耗能、物理极限、及制程成本高涨等巨大挑战下,半导体在运算、通讯、储存及节能领域,仍有无穷的机会,有待业界勇于挑战、持续创新。


日常生活中,大家早已习惯拥抱科技,手机、笔电、智慧连网,早已是不可或缺的一部分。不过,一直到美中贸易战发生,全世界才赫然发现,原来IC与芯片技术已经无所不在,不可或缺。这当然要提及过去40至60年,摩尔定律带来的科技进步,而摩尔定律之所以能持续进展,是归功于IC产业中各家公司的努力研发,才能让人类生活不断地创新提升。

在一年一度的VLSI盛会中,我谨代表联发科,跟大家谈谈IC产业目前面对的挑战。联发科是领先全球的芯片及通讯公司,但要保持领先地位并不容易。看似微小的芯片,背后是从系统端到电路端,必须在各个不同领域都能突破、创新,例如Modem及Wi-Fi等无线通讯技术、运算技术、类比技术、RF射频、AI人工智能等,正因为长期投入,才造就今天联发科在全球智慧手机、电视及其他市场都拥有高市占率。

全球半导体营收10年后将达1兆美元

全球半导体产业的前景光明,未来10年营收将持续成长至1兆美元,成长动能主要来自云端及边缘装置。云端包括资料中心、服务器、连网设备、储存设备;边缘端也需要大量的运算能力、连网能力,近年被归为元宇宙(Metaverse)概念的AR、VR、XR等技术,也少不了半导体。其他象是智慧家庭、个人行动通讯、资安、工业自动化、远距教育与医疗、环保减碳、智慧金融、智慧运输等,应用场景可说是无所不在,自然也带动半导体产业大幅成长。

不过,充满希望的同时也伴随着挑战。举例来说,过去10年,AI人工智能已被广泛地应用,带来许多便利。然而,天下没有白吃的午餐,AI不论是训练模型或是推论应用,都消耗了极大的能源。

数据爆量 通讯与运算需求大增

当前我们面对最大的挑战之一,就是「数据泛滥」(Data Deluge)。全世界正在产生爆炸性的资料量,根据估算,2010年全球产生及复制的资料量仅2个ZB(Zettabyte,1021 Byte=10亿Terabyte),2025年将达181个ZB;为了处理这么大量的资料,需要更多运算效能,更多通讯传输频宽和技术来搬运资料,这是我今天想跟大家分享的两个重点。

在通讯传输的部分,过去几10年,通讯标准不断演进,乙太网络(Ethernet)、Wi-Fi、蜂巢式无线通讯(Cellular)都有长足进步,例如Wi-Fi目前已发展到Wi-Fi 7,未来不可避免地将与Cellular汇整,主要是两者将使用类似的频宽。在接下来10年的后5G,甚至6G时代,也必须进一步发展各种技术来满足需求,例如:大规模多输入多输出天线(Massive MIMO)、自我干扰消除技术(Self-interference cancellation)、7GHz以上载波技术(Carrier Larger than 7GHz)、无线感测(Wireless sensing)、AI辅助技术 以及O-RAN的突破及生态系发展。

通讯传输的需求,主要来自于两大面向:频宽效能及功耗效能。大家一直担心摩尔定律即将失效,但截至目前它仍持续运作;该担心的恐怕是过去几10年与摩尔定律共同引导半导体走向奈米时代的登纳德定律(Dennard Scaling)(编按:晶体管尺寸缩小,功耗也等比例减少)已在2000年代初期即失效。换言之,过去我们能够藉由尺寸微缩来减少能耗,如今此优势已不复存在,降低能耗变得愈来愈困难。

其他的挑战还包括:不论是CPU、GPU或AI处理器,其逻辑核心(Logical cores)数量也碰到瓶颈,主因是晶粒尺寸愈来愈大,限缩了散热、封装及导线连结(Interconnect)的可能性。

制程对 效能及功耗改善越来越有限

每一代芯片技术的演进,从一个节点走向下一个节点,都必须在功耗、性能、面积、成本四大领域求取平衡并提升效能,理论上如此,但实际执行起来,难度却愈来愈高。
例如,当半导体制程技术每推进新的一代,业界期待功耗至少改善3成,而且希望芯片面积缩小50%、性能提升2成、成本下降3成。光从功耗来看,假设电源频率(Frequency)相同,面积减少了50%,理论上电容(Capacitance)也应减少50%,但实际上导线间的距离太近,电容难以减少,就成了功耗的瓶颈。

芯片效能也是,如果将能耗维持不变,理论上运算效能应可增加20%,但实际上却远低于预期。成本下降就更不用说,大家都知道晶圆制造的收费愈来愈贵,主要就是设备投资更庞大、光罩数量增加、制程时间拉长。半导体的成本高涨,甚至可能带动了通货膨胀。

为了处理爆炸性成长的资料量,IC产业不断精进芯片的运算及通讯效能,同时还要改善能耗,然而能耗改善的速度却不如预期,以目前全球能源产量的趋势来看,很可能在2030年或2040年出现瓶颈,导致芯片在运算或通讯效能的成长曲线停滞。

解决资料搬移耗能 存储器内运算崛起

过去几10年,计算架构普遍采用冯纽曼(Von Neumann)架构,也就是将资料储存和资料运算分开,需要时再将资料迁移。而在近10年来AI运算兴起时,此架构也被广泛运用。然而AI运算,无论是训练或推论,都牵涉大量的矩阵乘积与累加,过程中必须把将资料在存储器和处理器之间迁移,其代价是很昂贵的,而且资料储存离运算单元越远,能量消耗更高;资料搬移的耗能,甚至比运算高出几百倍,因此导致所谓的冯纽曼瓶颈。

这也是为什么,大家开始将记忆和运算两者靠拢,就是要解决资料搬移的瓶颈,目前已有数种架构改进方式,例如「近存储器运算」(Computing Near-memory)「存储器内运算」(Computing In-memory)的解决方案。根据测试,AI加速器或处理器若采用「存储器内运算」架构,相较其他方案,单位耗能下的工作效率可大幅改善,达到每瓦兆次操作数量(TOPS╱Watt)的高水平。可以预见,未来会有愈来愈多AI或机器学习的卷积神经网络仰赖「存储器内运算」,但仍有些技术挑战有待解决,包括占用更多芯片面积(Area Overhead)、神经网络模型必须调整以符合架构等等。

边缘到云端 高速连结催化先进技术

未来10年将愈来愈多科技产品问世,从边缘到云端,都脱离不了通讯与连结。在边缘端如手机、笔电、汽车及穿戴装置,涉及类比与数位讯号的转换;在云端则包含资料中心与基础建设,主要处理网络、运算与储存等。云端仰赖高质量的「数位对数位(Digital-to-Digital)」的连结,其中牵涉的传输技术许多有线连结(Wired Line),例如以存储器DDR(Double Data Rate)连线、源同步时序协定(Source Synchronous)或高速串列与解串列通讯技术(SerDes)。

数位连结的方式会有三个层级:在芯片层级有小芯片技术(Chiplet)与芯片对芯片的连接,在此层级的资料传输协定,包括有联发科专为资料中心打造的M-link、Intel的UCI-e,及大家熟知的高频宽存储器(HBM);第二个层级是电路板上的连结(On Board),主要是透过SerDes技术,如Ethernet及PCI-E;三是电路板对外的连结(Off Board),采用光纤或铜线。

为满足高速增长的资料与传输需求,必须发展出相应的架构或封装技术。例如:同质及异质整合的先进封装,如2.5D Si中介层(CoWoS)封装、扇出型(InFO)封装、3D堆栈封装等等。此外,更进一步采光来做高速传输,为了有效整合光和电讯号,开发出所谓的硅光子元件,以及「共同封装光元件」(Co-packaged Optics)的封装技术。这些领域也都还有技术上的挑战必须面对,例如讯号的整合、异质材料的界面、散热、制程变量等。

此外,还需要类比与数位(Analog-to-Digital)的资料转换技术。由于真实世界多为类比讯号,唯有把类比讯号转换为数位讯号,才便于进一步做处理、控制与传输。而处理完成的数位讯号,也需要转为类比讯号,才能在真实世界产生各类物理讯号,让人类感知,或以电磁波方式做通讯,数位与真实世界的讯息才能互通。尤其在无线网络通讯上,大量使用到资料转换技术。如何达到极高速率、高性能,但同时兼顾能耗控制,成为重要的设计关键。此外,在通讯上,更可采用全数位大规模多输入多输出天线技术(Digital massive MIMO)等技术,善用天线阵列波束成型(Beam Forming)让多个使用者终端同时通讯,让通讯系统兼具弹性和效率。

总的来说,资料的爆炸性成长正引领IC产业全力开发创新的运算及通讯技术,虽然面对研发成本的高涨,以及物理极限上的门槛,但全球业者仍不断投入关键领域,降低能耗同时提升性能,为追求更先进、便利、美好、智慧的生活而努力。

未来10年将有越来越多的科技产品问世,从边缘到云端,都脱离不了通讯与连结。边缘端如手机、汽车及穿戴装置,涉及类比与数位讯号(Digital-Analog)的转换;云端则包含资料中心与基础建设,仰赖高质量的「数位对数位」连结。

原文转载于:https://www.vic18.com/hyzx/2898.html

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章