最近一个月,AI技术接二连三地刷爆科技新闻版面。从ChatGPT,到百度发布文心一言,再到微软发布Office的AI助手Microsoft 365 Copilot,以及Midjourney发布能“画手指”的V5版本,甚至谷歌也上线了Bard聊天机器人接受排队测试。这对于GPU厂商来说,毫无疑问是值得期待的算力红利。调研机构TrendForce在一份报告中提到,GPT-3训练时大概用到了20000个NVIDIA A100 GPU左右的算力,而ChatGPT商业化后所需的GPU数量将达到30000个以上。
同时,有人猜测推理环节是否需要双倍甚至更多的GPU,毕竟从刚刚面试不久的GPT-4来看,其推理功能显然更加先进。
另有消息指出,由于需求激增,博通与英伟达的GPU网络设备供应严重短缺,即便两家公司正全力扩产,但供需鸿沟依然极大。微软为了给新版必应聊天机器人与新款Office365留下足够资源,内部已陷入AI服务器短缺,甚至必须对GPU采取“配额供给”机制。分析师Dylan Patel指出,微软为新Office Copilot部署的GPU并不能支撑一年,公司会在模型大小与质量上作出“重大妥协”。
据中国台湾电子时报报道,微软等客户对英伟达A100/H100芯片需求强劲,后者订单能见度已至2024年,更紧急向代工厂台积电追单。英伟达GPU已陷入严重短缺,可能已超出了三个多月前所有人的预期。
甚至有人以2021—2022年席卷全球的缺芯潮,来类比眼下的GPU短缺:成千上万的AI初创公司、甚至是大型云服务商,将如当年因缺少关键芯片而停产的车企,或因缺少GPU面临相似困境。
极度焦虑之下,多家公司已开始寻求AMD等其他品牌的替代品。而为了揽客,英特尔已率先掀起了GPU价格战。J. Gold Associates分析师Jack Gold表示,英特尔的GPU定价“相当激进,尤其是一些低端产品”;一些超大规模的厂商很有可能会向自家客户提供英特尔的高端GPU。
英伟达是是GPU概念的提出者,也是全球独立GPU的绝对领导者。AMD一直是独立GPU的第二大供应商,且一直保持着高速成长步伐,2022年AMD数据中心事业部的营业额实现了高达64%的同比增长。英特尔一直是全球最大的集成显卡供应商,在宣布重返独立GPU市场后,推出了面向数据中心和 AI 的Xe HP架构以及面向高性能计算的Xe HPC架构。与此同时,乘着AI东风崛起的一批中小GPU企业,也对新的市场机会虎视眈眈。
当前,国内GPU芯片的研制虽然可满足目前大多数图形应用需求,但在科学计算、人工智能及新型的图形渲染技术方面仍然和国外领先水平存在不小差距。因为GPU真的很难设计和制造,它与CPU并称两大最难芯片。行业人士一致认为,造GPU比造CPU还难,对运算性能、安全性、稳定性要求极高,要复杂完整的系统设计,才可能完成。