如何在不超出预算的情况下,选择合适数量的GPU是一个重要的问题
如果要建立#人工智能#工作站,那必不可以少的问题就是用多少个GPU来实现深度学习工作站,是一个还是很多呢?
选择人工智能GPU有三个要的考虑方向:高性能、内存、降温 效果。这个是必不可少的。至少原因为什么要考虑这个,这三个指标也是选择硬件时经常用的指标。
目标提供GPU的主要有两家公司:NVIDIA和#AMD#。下边我们来聊一下如何做到最优的一个选择。
当您的人工智能达到#深度学习#时,您的人工智能神经网络模型只有两种选择一个是CPU,另一个是GPU。CPU适合简单的学习处理一些简单的事情。而GPU相对来说比较适合复杂的,性能也要比CPU的要好。
GPU可以进行多进程的处理,而CPU只能和线次处理一个 进程。如果再加上您的程序是多线程的话,效果将完全是不一样的。从而深度学习GPU是是比CPU要好的。
NVIDIA 是深度学习GPU的市场的老大,特别是在深度学习,神经网络方应用方面有着出色的表现。根据应用市场划分分为了常规GPU、数据中心GPU、和专业的服务器工作站 三个级别
经过前边两个话题的讨论,我们要谈最重要的话题了,就是到底多少个够我们使用。深度学习时神经网络的是最消耗性能的。
神经网络需要根据进来的数据与现在有海量的数据进行核算、从而达到学习模型能进行预测的目标。这个也是我们为什么要深度学习的目标,如果量个AI人工智能,无法进行深度学习,那这个项目是失败的。
由于前期准备的神经网络数据量是庞大的,我们需要同时多个、高效地进行学习 。如果信息来源、预测的信息越多对GPU的性能要求越高。我们这个时候会根据预期添加更多的GPU性件来达到目标。在程序员中有一句话:性能不够、硬件凑。这个也是这个原则。
如果想装上更多的GPU,那主板做为硬件平台是至关重要的。GPU大部分是PCIE接口的,那么就要要求你的主板有着更多的接口。
由于项目的量级我无法确定,我可以说一下他们擅长做什么。
NVIDIA 是GPU中最好的,这个是肯定的。但AMD在图形方面也取得了不错的技术成果。我们以前去网吧时,大部分是AMD的,主要是因为图象处理能力比较好的。
留言与评论(共有 0 条评论) “” |