点击下方卡片,关注“新机器视觉”公众号
重磅干货,第一时间送达
https://www.zhihu.com/question/321031804/answer/1331269931
2.许多课程着重于对数学的“直观”理解,而不是实际的核心知识。我曾经也在朋友推荐下看过吴恩达(Andrew Ng)著名的ML课程,该课程在许多情况下都显示了多个方程式的含义,而不是描述它们的推导方式,如果想要明白完整推导过程是需要自己亲自思考的,但很多人却不去做,这更使得DL看起来“容易”。(PS:此处绝无抹黑吴恩达老师的意思)
3.最后,很多人通常无法理解良好的数据集在深度学习和机器学习中的重要性。这意味着我们将需要花费大量的时间来获取,清理和表示或编码数据。特征方面既要积累专业知识又要花费大量时间去尝试选择,还是很不容易的。如果一直在使用来自在线存储库的准备好的数据集来实现神经网络,那么就可以理解为什么所有这些对DL学习者来说似乎都很“容易”的。培训建立适当的数据集的工作量很多时候起码要占一份完整工作的50%。而提出并理解这些结构背后的内容则更加困难。我们需要对概率论,信息论,微积分等有充分的了解,才能掌握其主要思想,而这些工作很多人一开始根本却就没有接触过orz
到目前为止,深度学习在性能方面的进步的确令人印象深刻。
https://www.zhihu.com/question/321031804/answer/813712320
https://www.zhihu.com/question/321031804/answer/2100813695
https://www.zhihu.com/question/321031804/answer/1331319890
毕业设计因为研究生要做医学图像方向,选了基于深度学习的医学图像分割。在此前只跟着视频用tensorflow写过房价预测的基础上,在数据集准备完成的情况下,我仅仅用了一个星期就完成了从文献阅读、环境搭建、pytorch框架学习、算法实现、代码调试到完成训练的一整套流程,完成了初代算法的实现。
深度学习学习门槛之所以低,是因为框架的存在。实现算法的时候,网络模型不会改了,百度一下“pytorch自定义网络”;损失函数不会改了,百度一下“pytorch自定义损失函数”……等等,甚至不用google,墙内关于现有框架的资源足够解决大部分问题了。
但是你说这叫学习深度学习吗?叫,也不叫。之所以叫,是因为你确实在学深度学习;之所以不叫,是因为这其实只是实现了一次深度学习。
早就不是改改网络参数、损失函数,随便调调超参数就能玩转深度学习的时代了。想真正学会深度学习,只靠框架这么搞是远远不够的。
https://www.zhihu.com/question/321031804/answer/2017954999
上面有的回答说了,大厂提出了很多不错的模型/数据库/封装好的代码。你可以轻易上github上clone一个项目的代码就拿来用,同时由于AI这个名词太多次出现在公众视野,知识需求急剧上升,所以产生了很多浅层的基础的学习资料。
DL作为一种工具,应当越易于使用越好,这是很多从业者推动的,也是很多人觉得DL好学、简单的原因。但从research出发,弄清楚每一个实现细节,严格的推理和数学证明,或者是针对特定场景的一些经验主义、炼丹技巧(tricks)是更重要的事。这些都是需要大量项目经验和时间积累的。并且随着人数增多,好的idea越来越难产出,愈发考验创造知识的能力。
大概按照我的认知和给自己设的标准,跑跑MNIST/ImageNet,学会ctrl c代码算是会了helloworld;然后搭环境自己debug跑通,做些小修小补能算是入门了;能完全读懂数十篇前沿的顶刊顶会,然后提出一些新想法(不一定work)然后自己实现它,算是很了解了;等到自己能在顶会发个oral啥的,也勉强算是精通了;能获得业内的广泛认可,或是有三巨头/kaiming那种划时代成果的话,才算得上大家吧(我还是太菜了)
声明:部分内容来源于网络,仅供读者学习、交流之目的。文章版权归原作者所有。如有不妥,请联系删除。