加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 业界 > 正文

英特尔:数据带宽、稀疏性是人工智能芯片面临的两个最大挑战

发布时间:2020-08-26 09:59:40 所属栏目:业界 来源:网络整理
导读:英特尔的工程师表示,数据进出处理器是人工智能芯片面临的最大挑战,但是稀疏性则可能是一个更大的挑战。 作者:Tiernan Ray 格林尼治标准时间2020年8月17日17:33(东八区标准时间01:33) 主题:人工智能 上周,英特尔举行了自2018年以来的首次架构日活动

Uhlig指出,英特尔正在与DARPA合作开发该组织的“ HIVE”计划,该计划专注于所谓的图形分析。 Uhlig表示:“你可以将图形分析完全视为一个问题,利用稀疏数据架构会获得什么好处呢?图形。”

他说:“你需要把多种技术汇集在一起。”

你要确保内存系统已优化。因此,你需要针对8字节访问之类的事情进行优化,而不是扩大缓存线性访问,因为在较为传统的工作负载中,你没有同样的空间位置,所以这项工作经常是浪费。但是优化8字节不仅意味着将内存层次结构调整到该尺寸,还需要调整你通过结构发送到其他计算节点的信息大小。你需要考虑的另一件事是指针跟踪,以及你需要注意的各种依赖关系。你必须要处理很多指针依赖项。如果可以优化这些连接的依赖项,使之变得更加高效,也会很有帮助。因此,你可以应用一整套方法或体系结构技术,以帮助这些稀疏算法做得更好。作为我们在DARPA计划中职责的一部分,我们正在构建模拟器并致力于原型实现,它们有望在未来的某个时候出现——在这里必须要澄清的是,这不是产品声明,而是研究的方向——但是我们正在努力了解你希望通过架构完成的工作,以捕捉深度学习中的这些算法趋势。

Koduri补充表示,综上所述,“更有效地处理稀疏并行性的做法将产生一些新的体系结构思想,这些思想与我们在现在非常主流的矢量矩阵中的做法将是非常不同的。”

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读