原标题:【观点】李开复:大陆AI五年后赶超美国;AI算法的撩妹语录;Nvidia发表超大规模推论平台
1.李开复:大陆AI五年后赶超美国;
2.AI算法的撩妹语录;
3.可折叠手机抢位战打响 华为三星争抢“头把交椅”;
4.Nvidia发表超大规模推论平台,瞄准大规模AI推论应用需求
1.李开复:大陆AI五年后赶超美国;
创新工场创始人及首席执行官李开复今(16)日在论坛上指出,AI领域现在美国领跑全球,但大陆五年后将赶超美国。创新工场四年来投资40多家AI企业,都活的很好,其中有五家已经成为独角兽。
李开复今日出席「中国:改革新征程 开放新境界」中国发展高层论坛专题研讨会人工智能革命分会。他将人工智能分为四个阶段,产生四波巨大的机会。每一波浪潮都可能带给人类的GDP10%。第一波浪潮是网络AI,这一阶段需要需要海量的数量,而网络正好有海量数据。第二波,是使用自己储存数据,比如银行医院政府等都有海量数据,比如银行可以激活这些数据做贷款审核。
他说,第三波是能看能听的AI,摄影镜头和其他传感器遍布在各个地方,比如应用于超市就是无人超市。第四波浪潮时,AI加上手和脚,能动能拿,今天在工厂里的工作、智能制造这些,不需要人参与就能做出产品,比如超级洗完机器人,比如最重要的应用无人驾驶。「现在正是AI第四波浪潮,大陆五年后将赶超美国。」
李开复说,美国、加拿大和英国永远世界上所有AI最顶级的研究,美国领跑全球。过去十年,大陆崛起产生裂变,创业者创立很多公司,大陆打造出AI世界的半壁江山。大陆公司打造一整套创业的模式,未来中国式创新和美国可以平起平坐。
他表示,过去中国模仿美国,打造和美国一样好的产品,比如微博、微信,现在大陆本土创新,头条、快手、映客、蚂蚁金服、拼多多等,同时产生很多世界级的创业家。大陆还有一个优势,就是大陆AI资本领先全球,去年在认购方面,大陆的智能投资已经超过美国。联合报
2.AI算法的撩妹语录;
最近网络上「撩妹语录」掀起风潮,藉由猜想各历史伟人会对女孩说的情话,搭配伟人严肃的肖像照,出现了许多版本的撩妹语录,趣味横生。因此,我也做了深度学习版本的「撩妹语录」。在此除了让各位读者欣赏深度学习版撩妹语录外,也顺便做些解说,好让没有接触过深度学习的人也能够了解每个神经网络的基本概念,同时解析深度学习撩妹语录里面各个神经网络为何会这么说。
LSTM算法
图1就是大名鼎鼎的长短记忆模型(Long Short-Term Memory, LSTM),也是递归神经网络(Recurrent Neural Networks, RNN)中最受欢迎的一种形式。它最早是由Sepp Hochreiter于1991发表原型,然后Jürgen Schmidhuber于1997将该理论基础大功告成。没错!LSTM是个快要30岁的老算法了,它也是被Hinton发展出的深度学习优化方法救活的一票算法之一。
图1 LSTM算法
LSTM最大的好处在于它解决了递归神经网络容易发生的梯度爆炸以及梯度弥散问题,它使用了称之为「门控(Gate)」的机制,可以学习开启或是关闭的时机,来控制上下文向量(Context Vector)的流动。LSTM总共有3个门控,分别是输入门、遗忘门以及输出门。输入门负责管理新数据是否该纳入,而遗忘门负责管理哪些旧数据该遗忘,输出门则管理哪些上下文该纳入输出。所以,对女孩子说他的遗忘门总是关着,正是表达永不遗忘的最高礼遇。 Faster RCNN算法
Faster RCNN(图2)是由被粉丝们昵称为RGB的Ross B. Girshick所发表。自2013年起发表的RCNN三部曲包含RCNN、Fast RCNN以及Faster RCNN。最终版本Faster RCNN于2015发表,是精确率最高的物体检测算法之一;但可惜它是先定位,再分类的两阶段模型,所以速度不高。
图2 Faster RCNN算法
物体检测就是不但要知道照片里有什么(物体识别),还需要把它框出来(物体检测)。Faster RCNN使用了Region Proposal Network,解决了过去算法中以人工方式产生大量候选位置区域(Proposal)的问题;并改用预埋的不同尺寸Anchor,来解决物体不确定尺寸大小与比例的问题。所以,不管天涯海角,Faster RCNN都能把妹的位置给检测出来。 Auto-Encoder算法
Auto-Encoder(图3)是最古老的深度学习结构之一。它是一个漏斗型的结构,让高维度数据逐步被降维,到了最窄处,再逐步升维,并且要求输入必须等于输出。这意味着最窄处被极致降维的结果必须包含重建原始高维数据的一切必要讯息。我们称这样的高度压缩向量为表征(Representation)或者是嵌入(Embedded),这也是深度学习压缩算法的核心网络结构,由于它没有依赖任何外部卷标,因此被归属为标准的非监督式学习。所以只要看过妹的一颦一笑,它就能够取得表征,然后完整重现。
图3 Auto-Encoder算法
WaveNet算法
WaveNet(图4)是来自于Deepmind的得意之作,它也是目前声音生成模型的SOTA(State-of-The-Art)。WaveNet可以模仿人类或者是各种乐器的声音,他的模仿能力甚至连人类讲话时特有的换气呼吸声都可以模仿。
图4 Faster RCNN算法
WaveNet的本质是一个一维空洞卷积,一般我们用二维卷积处理二维的影像数据,那么一维的声音数据当然要用一维卷积。至于空洞卷积(Dilation)则是一种特殊卷积型态,它可以有效地在不增加训练参数的状况下,扩大每个卷积的感知域,这样就可以从细节到大趋势的捕捉声音特性。所以当然忘不了妹的声音。 Deep Belief Network算法
学深度学习的人千万不能不知道什么是深度信念网络(Deep Belief Network),它是深度学习三大神之首Hinton发展深度学习理论时的第一个深度学习网络(图5)。所以,我也借用它作为我在大陆创业的公司名字Deepbelief.ai。
图5 Deep Belief Network算法
深度信念网络每一层都是受限波兹曼机(Restricted Boltzmann Machine, RBM),Hinton拿它来做语音识别以及人脸识别,在那时都获得巨大的成功。这是神级的深度信念,妹怎能不感动。 DenseNet算法
DenseNet(图6)可以说是这类使用了跳转连接(Skip Connection)的卷积神经网络中的超级进化版,每一个稠密单元(Dense Block)中,每一层卷积神经层除了来自上一层传送的特征外,在之前的「每」一层都会透过跳转连接将特征直送,这样保证重要特征绝不丢失,所以超级珍惜与妹在一起的所有回忆。
图6 DenseNet算法
Attention算法
深度学习三大神之一的Yoshua Bengio首次将注意力机制(Attention)运用在机器翻译中,它模仿人类阅读文字的习惯,先逐字读取后,会将注意力放在特定的词汇以产生正确翻译结果,注意力机制可以衡量特别词汇的重要性(图7)。若是注意力一直在她身上,多么深情的执着。
图7 Attention算法
152-Layers ResNet算法
由微软亚洲研究院的两大男神孙剑与何恺明连手发表的ResNet,在2015年利用了一百五十二层前所未有的超深卷积神经网络获得了该年ImageNet的冠军,而且以仅有3.57%的物体识别错误率,终于在视觉领域上击败人类。一百五十二层残差神经网络,没有最深,只有更深(图8)。
图8 152-Layers ResNet算法
ResNet算法
残差神经网络(ResNet)利用了跳转链接传递梯度,逐层优化输出值与实际值之间的差异(残差),可以有效地传递梯度避免梯度弥散,也成为现在最主流的卷积神经网络骨干架构(图9)。
图9 ResNet算法 新电子
3.可折叠手机抢位战打响 华为三星争抢“头把交椅”;
■本报记者贾丽
国产手机巨头华为,近日陷入是非的漩涡之中。日前,有传言称华为将被“国资收购”,对此,华为方面表示消息不实。其内部人士同时否认了业务分拆、剥离部分业务的传闻。
不过,在业务布局上,华为方面传来了新消息。华为消费者业务CEO余承东近日对外透露,华为已经在开发可折叠手机,并且不必再等一年才能看到它。虽然没有透露手机的具体上市时间等细节,但他在采访中揭示了一些可能会在可折叠手机上看到的一些功能,包括5G和更好的AI功能。
业内分析人士丁少将表示:“折叠屏手机并非华为首创,京瓷、NEC以及中兴都曾推出过。在华为之前,三星也已经表示将推出折叠屏手机。如果三星、华为这样体量的巨头量产折叠屏手机,会起到推动和引领的作用,如刘海的异形设计,虽然夏普早就推出,但直到苹果iPhone应用后才风靡起来一样,头部厂商的产品会在行业起到示范作用。”
但他认为,“目前,折叠屏不会对华为产生太大的影响。不过如果华为能够在折叠屏上有所创新,推出颠覆性的产品,或将引发智能手机市场的震荡。而苹果、三星等手机厂商将进一步受到国产厂商的威胁。”
虽然目前华为手机势头迅猛,但其要在市场稳住第二的位置,在创新领域也还需要拿出颠覆性的产品。IDC、Gartner等全球知名调研机构发布的数据均显示:今年第二季度,华为智能手机的出货量首次超过苹果,仅仅排在三星的后面。但华为能否保住2018年全年出货量第二的位置,还需要打个问号。从今年上半年的表现来看,苹果和华为的出货量非常接近。
第一手机界研究院院长孙燕飚认为:“折叠手机是智能手机的创新,也是未来手机发展的趋势之一。华为有意借这一机会,在同质化的市场走出差异化道路,弯道超车。但今天我们所说的‘折叠’是两块屏的折叠,技术难度更大,对厂商的手机屏幕、机身结构、电池摆放等都有较高的要求。华为能否引领折叠手机,要看其在这一领域是否真正带来了创新。”
值得注意的是,三星电子移动通讯事业部总裁高东真也在近日表示,旗下首款可折叠手机或将于年底前发布。“在继全面屏之后,可折叠手机将成为下一个流行风向,也是手机厂商下一轮争夺的战争。可折叠手机的市场争夺战可能要比预想的来得更早。”业内人士认为。证券日报
4.Nvidia发表超大规模推论平台,瞄准大规模AI推论应用需求
Nvidia推出用于语音、影片、图片以及推荐服务的Tensorrt超大规模推论平台(Tensorrt Hyperscale Inference Platform),其使用的TeslaGPU提供高速处理深度学习工作负载的能力,而推论优化引擎TensorRT则可以充分利用Tesla GPU的效能,处理影片串流、语音和推荐系统等应用,并为Nvidia DeepStream SDK提供运算基础。
Nvidia提到,现在大规模数据中心可以借助超大规模推论平台的能力,使用增强的自然语言互动,并直接获取查询的答案,而非只是一些预存的可能候选答案。
超大规模推论平台由三个主要部分组成,Tesla T4 GPU、TensorRT 5以及TensorRT推论服务器。Tesla T4 GPU拥有320个Turing Tensor Cores以及2,560个CUDA核心,提供灵活的FP32、FP16、INT8和INT4的多精度运算,其推测速度是相同耗能CPU的40倍。
而TensorRT 5则是推论优化程序和Runtime引擎,TensorRT 5支持Turing Tensor Core,针对多精度工作负载扩展了神经网络优化,能低延迟提供推荐系统、语音识别和机器翻译等高吞吐量的应用服务,并且TensorRT还能将使用32或是16位数据训练的模型,为Tesla T4和P4上优化成INT8操作,以及在Tesla V100上优化为FP16。同时还赋予DeepStream SDK利用Tesla GPU,同时译码和分析影片串流。
TensorRT推论服务器是容器化的微服务软件,可以在数据中心环境让应用程序使用人工智能模型。TensorRT推测服务器是一个可以立即执行的容器,其提供的微服务可以让用户透过API,在一个或是多个GPU上,使用Caffe2、TensorRT和TensorFlow等任何支持ONNX标准的框架进行推测。ithome
END
留言与评论(共有 0 条评论) |