耗时5年,英伟达刚刚发布了一款机器人专用的AI芯片

编辑 | 吕梦

刚刚,英伟达发布了一款专为机器人打造的全新 AI 芯片 —— Jetson Xavier。它给一个售价仅为1299美元(约合8316元人民币)的盒子里赋予了10000美元(约合64023元人民币)的性能。

据悉,Jetson Xavier 将于今年 8 月向开发者出货,CEO黄仁勋在新闻发布会上也表示:“这台小电脑,将成为未来机器人的大脑”。

根据公开的消息,Jetson Xavier 有六颗处理器,每秒可执行 30 万亿次操作。 为了打造它,Nvidia 耗时5年,共有超过 8000 人参与了设计与开发。

它可以投身驾驶、飞行、游泳、遁地等应用,或是帮助采摘草莓、生菜和苹果,亦或在实验室中帮你拧螺丝 。尽管Nvidia 的技术曾经已经被一些企业用于自主仓库机器人、机器采摘和农业机器人。

不过黄仁勋表示,Jetson Xavier 要比之前的 AI 芯片要强大 20 倍。

简而言之,就是 Nvidia 成功地将 1000 瓦性能的 10 万美元级工作站,缩小到了 30 瓦的‘掌中宝’的程度。 当然,这并不是 Nvidia 首次进入人工智能(AI)芯片领域。

此外,黄仁勋还向记者们展示了另外两款 AI 处理器:

1.Drive Pegasus 主打深度学习应用,性能 280 T-Flops,适合纯自动驾驶出租车;

2.而 Drive Xavier 则面向半自动驾驶汽车市场。

英伟达一直以来以GPU而闻名,当人工智能研究者找上GPU的时候英伟达迅速抓住了机会,在短时间内投入数十亿美元动用数千工程师在2016年推出了第一个专为深度学习优化的Pascal GPU。

2017年,英伟达又推出了性能相比Pascal提升5倍的新GPU架构Volta,神经网络推理加速器TensorRT 3也同时亮相,TensorRT作为一款可编程推理加速器能加速现有和未来的网络架构。

因此,凭借通用的GPU单元,专门的TensorRT加速器,强劲的矩阵运算性能加上对其他算法的兼顾,英伟达不仅能用GPU满足AI构建的训练需求,还能用TeslaRT用来部署,很好实现AI构建。

除了在GPU和图形计算领域长期领先,英伟达也是最早一批在人工智能领域进行投资的科技公司。

2008年,当时在斯坦福做研究的吴恩达发表了一篇用GPU上的CUDA进行神经网络训练的论文。

2012年“深度学习三巨头”之一Geoff Hilton的学生Alex Krizhevsky用英伟达的GeForce显卡在ImageNet中将图像识别准确率大幅提升,这也是英伟达CEO黄仁勋时常提到的英伟达注重深度学习的开端。

有报告显示,世界上目前约有3000多家AI初创公司,大部分都采用了Nvidia提供的硬件平台。

所以英伟达也率先成了这一波AI热潮的最大受益者。

虽然英伟达在AI市场的机会非常巨大,但投资者们应该知道,AI现在只占到英伟达总体收入的一小部分。2017财年第四季度,英伟达的数据中心部门贡献的营收仅仅为2.96亿美金,占总收入的13%,至于其汽车业务(包括Drive PX 2 AI超级计算机),贡献的收入还不到总收入的6%。

虽然在应用上,各家有很多创新,比如一些企业主攻智能语音和翻译,一些企业主攻智能图像识别,一些企业主攻无人驾驶等,但在芯片选型上,大多采用英伟达的GPU。

像阿里等一批互联网公司都大量采购了英伟达的GPU用来跑人工智能,华为的一款服务器也采购了英伟达的GPU做加速器。

目前,AI芯片领域还存在大量的创新空间。由于还不存在适应所以应用的“通用”人工智能算法,因此AI芯片也就没有确定的架构,新架构的出现必然将是一次巨大的商业机会;而在各个细分领域,当AI技术进入了应用落地阶段,对成本和功耗的要求,也是推动各类垂直应用AI芯片的迭代的重要因素。

在目前的深度学习领域,把神经网络投入实际应用要经历两个阶段:首先是训练,其次是执行。

从目前的环境来看,训练阶段非常需要处理大量数据的GPU(图形处理器,下同),也就是以游戏和高度图形化的应用做图像渲染起家的英伟达领先的领域;而在转型阶段则需要处理复杂程序的CPU,也就是微软十几年来领先的领域。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();