整理:by浙商电子@蒋高振团队
来源:Nvidia 2023开发者大会
可打开浏览器访问NVIDIA AI超级计算和软件
NVIDIA Base Command™平台软件:可使用其管理和监控DGX Cloud训练工作负载,该软件可在DGX Cloud以及本地NVIDIA DGX超级计算机上提供无缝的用户体验。使用Base Command Platform,客户可将其工作负载与每项工作所需的正确数量和类型的DGX基础设施相匹配。
DGX Cloud包括NVIDIA AI Enterprise,平台的软件层,提供端到端的AI框架和预训练模型。今日发布的NVIDIA AI Enterprise 3.1提供了新的预训练模型、优化框架和加速数据科学软件库,为开发人员的AI项目提供了额外的快速启动。
行业巨头案例:
①Amgen(世界领先的生物技术公司之一)正在使用DGX Cloud和NVIDIA BioNeMo™大型语言模型软件来加速药物发现,包括NVIDIA AI Enterprise软件,内含NVIDIA RAPIDS™数据科学加速库。
②CCC Intelligent Solutions (领先的财产和意外伤害保险经济云平台,CCC)正在使用DGX Cloud来加速和扩展其AI模型的开发和培训。
③ServiceNow(数字业务平台提供商)将DGX Cloud与本地NVIDIA DGX超级计算机结合使用,以实现灵活、可扩展的混合云AI超级计算,这有助于推动其在大型语言模型、代码生成和因果分析方面的AI研究。
二、Picasso Service云服务
用途:用于构建和部署生成式AI驱动的图像、视频和3D应用程序,具有高级文本到图像、文本到视频和文本转3D功能,可通过简单云API提高创造力、设计和数字模拟的生产力。
用法:软件制造商、服务提供商和企业可使用Picasso在其专有数据上训练NVIDIA Edify基础模型,以构建使用自然文本提示的应用程序,从而为数百个用例快速创建和定制视觉内容,包括产品设计、数字孪生、讲故事和人物创作。
拓展:要构建自定义应用程序,企业还可以从Picasso的Edify模型集开始,这些模型使用完全许可的数据进行预训练,还可以使用Picasso来优化和运行生成式AI模型。
三、NVIDIA BioNeMo服务
BioNeMo Service是一种用于早期药物发现中生成AI的云服务,具有九种最先进的大型语言和扩散模型。可通过Web界面或完全托管的API访问,并且可以在NVIDIA DGX Cloud上进一步训练和优化,生物学生成式AI的工作流程得到了优化和统包。
BioNeMo服务具有九个AI生成模型,涵盖了开发AI药物发现管道的广泛应用:AlphaFold 2、ESMFold和OpenFold用于根据一级氨基酸序列预测3D蛋白质结构、用于蛋白质特性预测的ESM-1nv和ESM-2、用于蛋白质生成的ProtGPT2、MegaMolBART和MoFlow用于小分子生成、用于预测小分子与蛋白质结合结构的DiffDock等。
四、推出四种配置:L4|L40|H100 NVL|Grace Hopper
L4:一台8-GPU L4服务器将取代一百多台用于处理AI视频的双插槽CPU服务器。
L40:针对Omniverse、图形渲染以及文本转图像和文本转视频等生成式AI,推出L40,其性能是云推理GPU T4的10倍。
H100 NVL:针对ChatGPT等大型语言模型的推理,推出Hopper GPU,配备双GPU NVLink的 PCIE H100 , H100 NVL配备94GB HBM3显存,可处理拥有1750亿参数的GPT-3, 同时还可支持商用PCIE服务器轻松扩展。
Grace Hopper:新超级芯片,通过900GB/秒高速一致性芯片到芯片接口,非常适合处理大型数据集,例如推荐系统和大型语言模型的AI数据库借助Grace Hopper,Grace可以查询嵌入表,并将结果直接传入到Hopper,速度比PCIE快7倍。
五、Omniverse应用
Omniverse是实现工业数字化的数字到物理操作系统,是云原生,同时不限平台,可让团队随时随地在我们的虚拟工场中展开协作。Omniverse网络中的网络正在呈指数级增长,还连接了Siemens Teamcenter、NX和Process Simulate、RockWell Automation Emulate3D、Cesium、Unity等许多应用。
应用于汽车企业数字化:
①沃尔沃汽车公司和通用汽车使用Omniverse USD Composer连接和统一其资产工作流,并将汽车零部件在虚拟环境中组装成数字孪生汽车,在工程和仿真中, Omniverse将Powerflow空气动力学可视化。
②新一代梅赛德斯-奔驰和捷豹陆虎汽车,使用Omniverse Drive Sim生成,梅赛德斯奔驰使用Omniverse为新车型构建、优化和规划组装流水线。
③丰田公司使用Omniverse构建工厂的数字孪生。
三款专为Omniverse设计的系统:
①新工作站,由NVIDIA Ada RTX GPU和英特尔最新款CPU提供动力支持,适合光线追踪、物理仿真、神经图形和生成式AI,2023年3月起,BOXX、戴尔、惠普、联想将提供这款工作站。
②新型NVIDIA OVX服务器,由Omniverse优化而来,OVX由服务器GPU Ada RTX L40和BlueField-3组成,将由戴尔、HPE、Quanta、技嘉、联想和Supermicro提供。
③Omniverse Cloud,基于NVIDIA OVX运算系统推出, 每一层Omniverse堆栈包括芯片、系统、网络和软件都是新发明,正将Omniverse连接到微软365生产力套件。
六、超算及云服务
发布Grace、Grace-Hopper和BlueField-3三款新芯片,适用于超级节能加速数据中心,更新了100个加速库,包括用于量子计算的cuQuantum、用于组合优化的cuOpt、以及用于计算光刻的cuLitho(与台积电、ASML和Synopsys合作,达到2nm及更高制程),可将计算光刻用时提速40倍。
计算光刻:500套DGX H100(包含4000颗Hopper GPU)可完成与4万颗CPU运算服务器相同的工作量,但速度快40倍,功耗低9倍,即意味着GPU加速后,生产光掩模的计算光刻工作用时可以从几周减少到八小时。
NVIDIA DGX AI超级计算机是生成式大型言模型取得突破的引擎,DGX H100 AI超级计算机正在生产,并即将通过全球不断扩大的OEM和云服务合作伴网络面世。DGX没有止步于研究,正在成为现代化AI工厂,Nvidia通过与Azure、Google GCP、Oracle OCI合作,拓展NVIDIA DGX Cloud业务模式。
七、总结
英伟达推出了新的推理平台,包括四种配置和一个体系架构:
①适用于处理AI视频的8-GPU服务器L4。
②适用于Omniverse和图形渲染的L40。
③适用于扩展LLM推理的H100PCIE。
④适用于推荐系统和向量数据库的Grace-Hopper。
此外,通过与Google合作,Google GCP成为首款NVIDIA AI云,NVIDIA AI Foundations是一个云服务和代工厂,用于构建自定义语言模型和生成式AI,包括语言视觉和生物学模型构建服务。
Omniverse是实现工业数字化的数字到物理操作系统,可以统一端到端工作流,并将价值3万亿美元的汽车行业数字化;在Azure上进行托管,与微软合作,将Omniverse Cloud引入各行业。
法律声明及风险提示