加入收藏 | 设为首页 | 会员中心 | 我要投稿 济南站长网 (https://www.0531zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 营销 > 电子商务 > 要闻 > 正文

准备布局自定义硬件以加速AI

发布时间:2022-02-16 11:55:58 所属栏目:要闻 来源:互联网
导读:据IDC根据IDC开始使用该技术,在2019年,欧洲人工智能(AI)在欧洲的人工智能(AI)的支出设定为增长49%。 Andrea Minonne是IDC客户洞察力与欧洲分析的高级研究分析师表示:许多欧洲零售商,如丝芙兰,ASOS和Zara,以及纳特韦斯特和汇丰银行等银行已经遇到
    据IDC根据IDC开始使用该技术,在2019年,欧洲人工智能(AI)在欧洲的人工智能(AI)的支出设定为增长49%。
 
    Andrea Minonne是IDC客户洞察力与欧洲分析的高级研究分析师表示:“许多欧洲零售商,如丝芙兰,ASOS和Zara,以及纳特韦斯特和汇丰银行等银行已经遇到了AI的好处 - 包括增加的商店访问,更高的收入,降低成本,更令人愉悦和个性化的客户旅程。“与流程自动化相关的工业特定用例正在成为主流,重点被设定为为个性化或预测目的而转向下一代使用AI。”有行业共识,即传统的基于CPU的计算机架构通常不达到运行机器学习算法的任务。如今,图形处理器提供运行当前机器学习应用所需的性能。
 
但是现在需要更大水平的性能的网络巨头正在开发自定义AI加速硬件。例如,2月份,FT报告了Facebook正在开发自己的机器学习芯片。Facebook加入谷歌,三年前宣布其自定义AI芯片。2016年,谷歌推出了一个张量处理单元(TPU),定制应用专用集成电路(ASIC),它专门为机器学习而设计 - 并针对Tensorflow深神经网络(DNN)学习模块量身定制。
 
当时,常规Jouppi,Google的杰出硬件工程师写道:“我们已经在我们的数据中心内运行了TPU以上超过一年,并发现它们为机器学习提供了每个瓦特的数量级优化的性能。这与未来大约七年的快速转发技术大致相当于[三代摩尔定律]。“Google的TPU可在GCP上获得。目前正在测试顶端V2-512 Cloud TPU V2 Pod,每小时花费422.40美元。
 
ASICS非常昂贵和有限,因为它们旨在运行一个应用程序,例如在Google的TPU的情况下的Tensorflow DNN模块。Microsoft Azure使用现场可编程门阵列(FPGA)提供加速,并根据Microsoft,FPGA提供靠近ASIC的性能。“随着时间的推移,他们也是灵活和可重新配置的,实现新的逻辑,”它说。它的硬件加速机器学习架构,被称为脑力,基于英特尔的FPGA设备来实现微软表示的内容“使数据科学家和开发人员能够加速实时AI计算”。
 
可以说,图形处理单元(GPU)是希望部署硬件以加速机器学习算法的大多数组织的入口点。根据NVIDIA的说法,GPUS适合培训AI应用的深神经网络。“因为神经网络是从大量相同的神经元创建的,所以它们是高度平行的,”它说。“这种并行性自然地映射到GPU,这提供了超大速度超过CPU培训。”
 
MathWorks的并行计算工具高级工程经理和高级工程经理和主要建筑师Jos Martin表示:“如果没有GPU的出现和他们带来的快速计算,我们就不会看到这一领域的目前的爆炸。AI的发展和GPU计算齐头并进以加速彼此的增长。“Martin表示,在过去几年GPU技术的进步中,他们现在支持计算机科学中所知的内容,这是Martin表示。
 
从云等云等机器学习GPU,如亚马逊EC2 P3,提供多达八个NVIDIA V100张核心GPU,每小时31.22美元的网络吞吐量高达100 Gbps。显然,数据需要在云中进行机器学习处理。如果规定或数据集的大小禁止这一点,许多组织已建立自己的基于GPU的机器学习加速器。
 
一个例子是莫斯科的Tinkoff Bank,它已经建立了自己的超级计算机,以支持其策略来开发机器学习和AI的平台。被称为Kolmogorov集群,它被认为是俄罗斯第八最大的超级计算机。

(编辑:济南站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读