分析机器学习应用:数据中心和云计算成为企业的新战场 机器学习作为一种实现人工智能的方法,近年来已经出现了越来越多的成功案例。它已经从一个相对模糊的计算机科学概念迅速发展成为企业经济中的一个影响因素。因此,在机器学习领域有大量的资本投资是不足为奇的。 边肖:周亚 机器学习作为一种实现人工智能的方法,近年来已经出现了越来越多的成功案例。它已经从一个相对模糊的计算机科学概念迅速发展成为企业经济中的一个影响因素。因此,在机器学习领域有大量的资本投资是不足为奇的。
麦肯锡的一项调查显示,2013年至2016年间,人工智能开发的总投资增加了两倍,其中200亿至300亿美元的大部分投资来自一些技术巨头。这些公司希望生成机器学习和其他人工智能模型,这些技术在未来对他们的客户来说将像今天的移动和互联网一样至关重要。
人工智能技术因其巨大的商业价值而极具吸引力。高德纳预测,到2020年,人工智能技术将在新的商业软件中变得无处不在,并将成为首席信息官投资重点中30%的五大技术之一。
事实上,目前,人工智能市场的大部分驱动力来自根基深厚的公司:
Nvidia已经成为GPU的主导者和机器学习培训的首选平台。到目前为止,这是大多数机器学习的焦点。
英特尔推出了神经处理器——一种低延迟、高内存带宽的芯片,据说是专门为深度学习设计的。(英特尔在2016年收购了Nervana)。
谷歌的张量处理单元(TPU)已经在机器学习加速器市场站稳了脚跟,现在已经发展到第二个版本。第一个版本是谷歌开发的专用集成电路。它的目标是在自己的服务器上加速语音到文本应用程序的推理。与第一个版本相比,第二个版本的云TPU更像是一个高性能的TPU集群,旨在作为一个培训模块与英伟达竞争。
简而言之,机器学习直接来自人工智能的早期领域。传统算法包括决策树学习、演绎逻辑规划、聚类、强化学习和贝叶斯网络。
机器学习最基本的方法是使用算法分析数据,从中学习,然后对现实世界中的事件做出决策和预测。不同于传统的解决特定任务的硬编码软件程序,机器学习是基于大量的数据来训练和学习如何通过各种算法从数据中完成任务。
本文主要关注和谐,这是一个巨大的市场和机器学习的基础。林利集团首席分析师林利·格温纳普(Linley Gwennap)预测,面向数据中心的人工智能加速器市场到2022年将达到120亿美元的规模:在未来一到两年,我们将开始看到更多的数据中心和其他设备选择。他认为,目前,谷歌和Facebook等科技巨头面临的问题是,我应该坚持设计自己的芯片吗?或者,如果企业可以在公开市场中获得同样的经济利益,我需要尝试吗?
机器学习的下一个阶段
许多公司交替使用机器学习、深度学习、人工智能和神经网络技术。虽然这些技术彼此之间有细微的差异,但总的来说,它们都基于实时数据。计算机可以权衡许多不同的情况,并根据这些预设的权重做出最佳选择,即数据挖掘。加权过程是训练阶段的一部分,而推理阶段是机器学习的核心。
数据挖掘是一个非常宽泛的概念。大多数常用的数据挖掘方法来自机器学习。深度学习是一种流行的机器学习算法,它具有更多层次和不同类型的分析,最终形成一个更完善的解决方案。这样做的成本是消耗更多的计算资源来完成培训阶段。这两者的本质也与神经网络有关,神经网络在信息节点周围建立类似网络的连接,这与人脑中的神经元与周围细胞建立类似网络的连接的方式非常相似。人工智能是一个包罗万象的术语,对许多不同的人来说意味着许多不同的东西,从IBM的沃森到电影《2001:太空漫游》的哈尔。但总的来说,这意味着设备可以独立于显式编程学习行为。
机器学习的第二阶段是推理。这一阶段基本上是将学习阶段的结果应用于特定的应用程序和市场细分,即算法投入实际应用的地方,具有更大的机会。结果可能是由风险资本支持的大量初创企业。
ARM员工杰姆·戴维斯说,机器学习的推理和训练阶段完全不同。
所谓推理,你可以做各种奇怪的事情,比如给黄瓜分类。它离用户更近,这就是为什么你会看到各种有趣的案例。但是手机现在也有预测文本,类似于25年前开始的推理。推理是辅助自动驾驶的重要组成部分。从传感器收集的数据也需要基于机器学习进行预处理。
Cadence旗下TensiliDSP部门的产品营销总监普林德赛(Pulin Desai)表示:推理需要在边缘完成。例如,在汽车中,你可能有20个图像传感器,加上雷达和激光雷达,以提供360度的视野。但是如果你在汽车上安装一个图像传感器,它可能有180度的视野。这需要失真校正,即图像处理。
训练和推理阶段的一个关键区别是训练是在浮点中完成的,而推理是使用定点完成的。数字信号处理器和可编程门阵列是固定点。
让我们简单谈谈ARM、DSP和FPGA。市场经常比较它们。
在嵌入式开发领域,ARM(Advanced RISC Machines)是一种微处理器,它设计了大量的RISC处理器、相关技术和软件,并提供了一系列内核、系统扩展、微处理器和系统芯片方案。目前,市场覆盖率超过90%。数字信号处理器是一种独特的微处理器,有自己完整的指令系统。它是一种用数字信号处理大量信息的设备。一个数字信号处理器包括一个控制单元,一个运算单元,各种寄存器,一定数量的存储单元等在一个小芯片。它的外围还可以连接多个存储器,并可以与一定数量的外部设备通信。它具有完整的软件和硬件功能,本身就是一台微型计算机。现场可编程门阵列(FPGA)是在PAL、GAL、PLD等可编程器件基础上进一步发展的产物。它是专用集成电路(ASIC)中最集成的类型。
三者的区别在于,ARM具有相对强大的事务管理功能,可以用来运行接口和应用程序。其优势主要体现在控制方面。数字信号处理器主要用于计算,如加密和解密、调制和解调等。其优点是数据处理能力强,运行速度快。FPGA可以用VHDL或verilogHDL编程,具有很强的灵活性。因为它可以被编程、调试、重新编程和重复,所以它可以被完全设计、开发和验证。当电路有一些变化时,可编程门阵列的优点可以更好地发挥出来。其现场编程能力可延长产品在市场上的寿命,并可用于系统升级或调试。
Flex Logix首席执行官杰弗里·泰特(Geoffrey Tate)表示:我们正在摆脱使用x86处理器解决所有问题或人们需要针对特定工作负载优化硬件的局面。大部分计算将在数据中心之外进行,所以FPGA和其他东西的角色必须改变。随着支持音频和视频需求的扩大,您可能仍然会看到传统和新架构的混合。我认为我们都是加速器。
在机器学习领域,现场可编程门阵列和电子可编程门阵列玩家正争相进入推理市场。据估计,2022年将有17亿台机器学习客户端设备。
Achronix总裁兼首席执行官罗伯特·布莱克表示:在机器学习的学习阶段,GPU已经赢得了很多关注。他说,然而,更大的市场将是推理,这些产品的成本和功耗将是至关重要的。这就是嵌入式解决方案在这些领域极具吸引力的原因。
ARM的员工戴维斯对此表示赞同。他说,电力预算保持在2-3瓦的范围内,而电池技术的改进相对较弱。锂电池的改进通常在每年4%-6%的范围内。相比之下,完成所有这些任务所需的计算性能的提高是数量级的。
这将需要一个完全不同的体系结构,包括理解在哪里和做什么样的处理。
兰布斯公司的发明者史蒂文·吴说:我们已经看到了人工智能、神经网络芯片和核心的市场需求。更高层次的需求是他们整合信息。现在,市场正在探索集成人工智能、神经网络芯片和内核的可能性。你现在看到的是,许多公司正在寻找主要市场,并围绕这些市场建设基础设施。例如,汽车市场;还有手机市场,那里有数十亿台设备,他们正在推动新的包装基础设施。此外,物联网有潜力,但挑战在于找到共同点。然而,神经网络和机器学习似乎每周都有新的算法,这使得开发单一架构变得困难。这就是为什么你看到人们对FPGA和DSP的浓厚兴趣。
机器学习的工业应用
机器学习在以客户为中心的应用中变得非常普遍。它可以用来预测销售,寻找客户流失的迹象,并通过交互式语音应答或通过在线聊天机器人和消费者应用程序(如谷歌翻译)提供客户服务。
Facebook使用三个深度学习应用程序来过滤上传的内容,例如,一个用于识别人脸并在上传的图片中标记人物,一个用于检查仇恨言论或其他有针对性的内容,另一个用于定位广告。
西门子曼托公司传感器集成首席工程师尼扎·萨勒姆(Nizar Sallem)表示,深入学习可能适合客户服务和分析,但它也是提供自动驾驶车辆所需的即时感知、决策和控制系统的首选对象。机器学习了解车辆周围的环境、道路上的不同参与者、交通规则以及车辆当时的预期位置。它必须决定你的行为应该是什么样子,什么时候你可以违反交通规则,以避免危险或保护车内的人。
Avida首席科学家、高级研究副总裁比尔·戴利(Bill Dally)说,令我惊讶的是,深度学习革命来得如此之快。在过去的三年里,各种各样的应用程序似乎都在一夜之间放弃了传统的方法,转向了深入学习。他补充说,这并不需要在软件上进行巨额投资;你拿一份申请,训练网络,然后你就完成了。它在一些领域已经变得无处不在,但是对于每一个应用来说,还有十个其他的机会来拥抱神经网络。
麦肯锡认为,技术行业之外的大多数人工智能应用都是实验性的,而在技术行业,大多数人工智能应用要么是为了支持或改善其他服务,要么是为了给消费者增加新的服务。在麦肯锡调查的3000多家公司中,只有20%的公司表示他们在重要的业务领域使用了与人工智能相关的技术。调查发现了160个人工智能的使用案例,麦肯锡只发现了12%的商业应用。
或者换句话说,88%的公司没有在商业上部署人工智能,这是一个巨大的机会。相比之下,2016年,包括谷歌和百度在内的高科技公司花费了200亿至300亿美元,其中90%用于研发,10%用于收购。
市场预测
尽管人工智能技术正处于爆炸期,但它的发展仍处于初级阶段。主流供应商仍然是现有的高科技公司,最赚钱的仍然是消费者服务。据Tractica报道,这包括谷歌的语音到文本转换和翻译服务,以及亚马逊、脸书和百度等公司的消费者互动/客户服务应用。该报告估计,到2017年底,人工智能驱动的消费服务的价值将达到27亿美元,高于2016年的19亿美元。
分析机器学习应用:数据中心和云计算成为企业的新战场
据Tractica估计,到2025年,包括硬件、软件和服务在内的整个人工智能市场将达到421亿美元。
图:人工智能各部分的收入。资料来源:Tractica
机器学习即服务是另一个类别,其中73%被亚马逊、IBM和微软占据。透明市场研究(TMR)4月份的一份报告称,这一数字预计将从2016年的约10.7亿美元增至2025年的199亿美元。
Tractica表示,大多数机器学习功能服务目前都面向消费者,其中包括谷歌翻译和语音转换文本应用程序,作为其客户TPU的概念证明。
深度学习成为半导体行业的新战场
深度学习的出现也凸显了半导体行业与其最大客户之间日益复杂的关系,尤其是与谷歌和其他超大型数据中心所有者的关系,这些数据中心足够大,可以配置和构建自己的服务器和芯片。
芯片公司多年来一直在为特定云客户的需求制造或定制芯片。例如,英特尔已经为微软构建了一个可编程门阵列下行链路加速器,并为阿里巴巴云客户构建了一个基于可编程门阵列的应用加速器。英特尔还邀请脸谱网帮助设计英特尔的神经处理器和该公司即将推出的湖冠专用集成电路(ASIC)的封装,以供深入学习。
谷歌已经发布了其他芯片,包括它为Pixel2手机开发了机器学习协处理器的消息,这是它的第一个移动芯片。谷歌还开发了Titan,一种连接到服务器的微控制器,以确保服务器不会被错误引导、损坏或被恶意软件感染。
谷歌表示,TPU可以将机器学习的每瓦性能优化一个数量级,并将谷歌的机器学习应用向前推了七年,以证明其在TPU的投资是合理的。第一个TPU只是为加速机器学习模型推理的普通服务器设计的,而不是首先针对训练模型。因此,它们不会与Avida或英特尔的机器学习培训产品直接竞争。
当谷歌在5月发布其云TPU时,该公司的声明听起来像是要与英特尔和Avida进行更直接的竞争。
谷歌声称云TPU的浮点性能为每单元180万亿次浮点运算,但将这些单元打包成4-TPU吊舱,总共包含11.5万亿次浮点运算。这种配置似乎与Avida广受赞誉的DGX-1超级计算机相竞争,后者配备了8个顶级特斯拉V100芯片,声称总最大吞吐量为1petaFLOP。
来自云的竞争
戴利说,谷歌和其他公司在没有加速或TPU的情况下取得了早期成功,但有些网络很容易培训。标准图像搜索很简单。然而,他说,如果需要更多的信号处理训练来处理图像和视频流,对于那些每周都要重新训练网络的人,或者对于那些更注重训练的人来说,GPU的效率要高得多。
克里斯·龙威是凯登斯知识产权集团的前首席技术官。他创立了科宁特风险投资公司,为神经网络、物联网和自动驾驶嵌入式系统的初创企业提供资金和建议。他说,问题是谷歌的新处理器是否足以将客户与其他业务分开,答案可能是否定的。任何云提供商都必须支持多种架构,因此支持深度学习的数据中心将成为各种技术的中央处理器、图形处理器、专用集成电路、现场可编程门阵列和知识产权的盛宴。
龙威说,也有可能一些训练负荷将更多地转移到客户端设备内置的推理机。这个领域的许多公司肯定会有机会。然而,很难取代现有的仅限于数据中心服务器的机器学习培训参与者。
图:认知计算的演变。资料来源:认知投资公司
心灵鸡汤:
标题:分析机器学习应用:数据中心和云计算成为企业的新战场
地址:http://www.yunqingbao.cn/yqbxx/995.html