找回密码
 立即注册
搜索
查看: 543|回复: 0
打印 上一主题 下一主题
收起左侧

[电脑资讯] 英特尔Nervana处理器更新 神经网络芯片迎Tbit级带宽

[复制链接]

原创版主 - 原创版主管理员 - 管理勋章

 成长值: 34130

灰铜v1_05绿金v1_01灰金v1_05绿银v1_01绿铜v3_05绿银v3_05红铜v1_05紫银v2_05

跳转到指定楼层
楼主
 楼主| 发表于 2017-12-11 02:11 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
  在今年早些时候,英特尔展示了他们在Nervana神经网络处理器方面的进展,Nervana芯片在机器学习和AI领域内大大超过了普通芯片,如今他们又发布了Nervana的最新信息,并表示正努力将其推向市场。

  和传统的处理器不同,Nervana特别强调矩阵乘法和卷积计算,这是深度学习用到最多的场景,需要大量的内存和算数运算,传统的芯片结构已经不能适用。为了减少读取外部存储的操作,保证内存带宽的够用,Nervana芯片取消了常见的Cache,改由软件直接负责芯片内存的管理,芯片本地内存模块增加到2MB,每个Nervana芯片约有30M空间,可以一次加载更多的外部数据。

  为了进一步的节省内存空间和带宽,英特尔还专为人工智能设计了一种新的数据类型Flexpoint。由于神经网络对于数据的杂音容忍度较高,低精度的Flexpoint类型可以在16bit的存储上,实现近似于32bit浮点操作的效果,节省了一半空间,让处理器和内存带宽的使用效率翻倍。

  Nervana芯片还设计有片外互联通道,支持Tbit级别的高速双向资料传输,多个处理器可以组成一个更大的神经网络系统来执行单项任务工作。

  英特尔在去年收购了深度学习芯片厂商Nervana Systems,意图在AI领域后来追上,不过其它厂商也没干等着,NVIDIA有针对AI应用所设计的Tesla V100,而谷歌为数据中心应用打造了一款Tensor Processing Unit (TPU)芯片,IBM也发表了名为True North的仿神经型态芯片。各家厂商都在机器学习和AI领域加大投入,相信不用太久,这些新技术都会出现在普通人的生活中。
插件设计:zasq.net
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋| ( Q群816270601 )

GMT+8, 2024-5-20 07:29 , Processed in 1.050993 second(s), 46 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表