大比特商务网旗下:
智能照明 智能家电 AI+IoT与智能家居 电机驱动与控制 快充与无线充 电驱动与BMS 锂电保护与BLDC 智能四表 汽车照明
广告
广告
您的位置: 半导体器件应用网 >>行业要闻 >> 行业新闻 >> 新技术旨在通过简化GPU内部存储器来帮助神经网

新技术旨在通过简化GPU内部存储器来帮助神经网

2019-10-21 16:09:01 来源:酷学中国网

【大比特导读】富士通实验室的工程师专注于图形卡中的内存,以加快神经网络上机器学习的速度。富士通实验室本周宣布了一项新技术

富士通实验室的工程师专注于图形卡中的内存,以加快神经网络上机器学习的速度。富士通实验室本周宣布了一项新技术,官员表示,该技术可简化GPU的内部存储器,以满足对更大规模的神经网络的不断增长的需求,而神经网络是迈向人工智能(AI)的基础之一。测试表明,该技术实质上使神经网络的功能加倍,同时将内部GPU内存使用量减少了40%以上。

图片来源网络

GPU正在进入越来越多的领域,例如高性能计算(HPC),它们可以用作基于CPU的系统的加速器。关键是能够并行运行应用程序和工作负载,这可以大大帮助提高运行特定工作负载的系统的性能,同时又可以控制功耗。

GPU在机器学习和AI的增长中也发挥着关键作用,包括在训练神经网络的深度学习领域。借助AI,系统可以收集输入(例如语音命令或来自周围环境的图像),立即处理数据,然后做出相应的反应,通过学习并对其周围的环境和体验做出反应,从而基本起到类似于人脑的作用。

机器学习本质上有两个部分:训练(在其中训练了神经网络,例如对象识别)和推理(在训练中,它们使用该训练来识别和处理未知输入,例如Apple的Siri理解用户的问题然后正确地做出响应) 。神经网络上的大多数训练任务都是由GPU完成的,而推理工作往往是在Intel的CPU上完成的。

但是,英伟达和英特尔都希望扩展其功能,英伟达将目光投向了其GPU的推理工作量,而英特尔则希望通过基于x86的芯片来进行培训。

富士通实验室的官员表示,在过去的几年中,越来越多地依赖GPU来处理深度学习处理所需的大量计算。他们说,为了运行这些高速工作负载,计算中使用的数据需要存储在GPU的内部存储器中,这阻碍了规模,因为它受内存容量的限制。

富士通的这项新技术旨在通过实质上重用GPU的内存资源而不是简单地增加内部内存量来提高内存效率。根据Fujitsu Labs官员的说法,当机器学习开始时,将分析神经网络每一层的结构,并且可以更改计算顺序,以便可以重用已分配较大数据的存储空间。

该技术分析了神经网络,并确保处理计算和数据的方式更有效地利用了GPU的存储空间。结果是组织可以扩展神经网络的规模,该神经网络可以在单个GPU上高速运行学习工作负载。此外,从该学习中得出的模型更加准确。

神经网络具有的层越多,它执行诸如对象识别和分类之类的工作就越准确。然而,随着神经网络的发展以提高准确性,这种增长延长了学习时间。一些组织已经转向以类似于超级计算机的方式并行使用多个GPU,但是这会减慢学习速度。

富士通实验室的研究人员已在Caffe开源深度学习框架中实施并测量了GPU内部存储器的使用。用AlexNet和VGGNet网络评估该技术表明,它使GPU能够扩展神经网络上的学习,同时减少对GPU内部存储器的使用。

富士通实验室官员在本月早些时候的2016年IEEE机器学习信号处理大会上概述了该技术的细节,并且计划通过使其成为富士通AI技术的一部分来将该技术商业化。

声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请与我们联系,

我们将及时更正、删除,谢谢。

  • 赞一个(
    0
    )
  • 踩一下(
    0
    )
分享到:
阅读延展
GPU

微信

第一时间获取电子制造行业新鲜资讯和深度商业分析,请在微信公众账号中搜索“大比特商务网”或者“big-bit”,或用手机扫描左方二维码,即可获得大比特每日精华内容推送和最优搜索体验,并参与活动!

发表评论

  • 最新评论
  • 广告
  • 广告
  • 广告
广告
Copyright Big-Bit © 1999-2016 All Right Reserved 大比特资讯公司 版权所有      未经本网站书面特别授权,请勿转载或建立影像,违者依法追究相关法律责任