朋友,既然来了,加入我们的大家庭呗~
您需要 登录 才可以下载或查看,没有账号?立即注册
×
全新妙想投研助理,立刻体验' Q# ]& v6 ~4 _* e# R {5 q
克日,北京大学人工智能研究院孙仲研究员团队团结集成电路学院研究团队,乐成研制出基于阻变存储器的高精度、可扩展模仿矩阵盘算芯片,初次实现了在精度上可与数字盘算媲美的模仿盘算体系。
+ K5 B- ?7 q7 | 该芯片在求解大规模MIMO信号检测等关键科学题目时,盘算吞吐量与能效较当前顶级数字处置惩罚器(GPU)提拔百倍至千倍。相干论文于10月13日刊发于《天然·电子学》期刊。. @( c Q5 c! W4 C K- P
对于大多数风俗了数字盘算机(0和1)的公众而言,“模仿盘算”是一个既古老又新颖的概念,什么是模仿盘算呢?: Y. J% Q$ t& {6 v9 ^( w
孙仲起首用生动的比喻对其举行表明:“如今的全部芯片都是数字盘算,数据都必要先转换成0和1的符号串。好比数字‘十’,必要转译成‘1’和‘0’,计为‘1010’。”假如用二进制来表现“1+1=2”,则应该记作“1+1=10”。
8 V4 Q0 w8 H8 ` 孙仲说,“而模仿盘算则无需这层‘转译’,它是一种‘类比盘算’(analogue computing),可以直接用一连的物理量(如电压、电流)来类比数学上的数字。好比,数学上的‘十’,可以直接用十伏或十毫伏的电压来表现。”
6 D2 ?0 A/ Z9 x- f% C- @ i 模仿盘算机在盘算机发展早期(上世纪30-60年代)曾被广泛应用,但随着盘算使命日益复杂,其精度瓶颈凸显,渐渐被数字盘算代替。孙仲指出,此次研究的焦点正是要办理模仿盘算“算禁绝”这一痛点。
, [& m0 \/ Q, U; N$ Q$ v; _ 当前的市面上的主流CPU和GPU都是数字芯片,并都接纳冯诺依曼布局,将盘算和存储功能分开,通过01数字流的编译+盘算+解码实现信息盘算和传输。
0 b3 W9 G: J% b8 M8 } 基于阻变存储器的模仿盘算的上风之一在于取消了“将数据转化为二进制数字流”这一过程,同时不必举行“过程性数据存储”,进而将数据盘算过程与数据存储合而为一,实现算力解放。' l3 q; ^. T$ X6 U3 s2 h/ r3 y
孙仲指出,与其他“存算一体”方案对比,国表里很多团队会合于研究矩阵乘法(AI推理的焦点),而他的团队特色在于专注于更具挑衅性的矩阵方程求解(AI二阶练习的焦点)。矩阵求逆操纵要求的盘算精度极高,时间复杂度到达了立方级。而模仿盘算依附物理规律直接运算的方式,具有低功耗、低耽误、高能效、高并行的自然上风,只要可以或许不停低落盘算偏差,不停提拔盘算精度,将为传统GPU的算力解放带来爆炸性突破。
X/ Q9 Q6 @2 k6 b) m4 Q. q4 H 高精度全模仿矩阵盘算求解矩阵方程
4 E8 f5 S% Y3 ~ 在盘算精度方面,团队在实行上乐成实现16×16矩阵的24比特定点数精度求逆,矩阵方程求解颠末10次迭代后,相对偏差可低至10量级。在盘算性能方面,在求解32×32矩阵求逆题目时,其算力已逾越高端GPU的单核性能;当题目规模扩大至128×128时,盘算吞吐量更到达顶级数字处置惩罚器的1000倍以上,传统GPU干一天的活,这款芯片一分钟就能搞定。
/ C: P& D4 _9 s4 G$ ^ 关于应用远景,孙仲以为,模仿盘算在将来AI范畴的定位是强盛的增补,最有大概快速落地的场景是盘算智能范畴,如呆板人和人工智能模子的练习。
1 y1 M1 R% n+ s 谈及与现有盘算架构的关系,孙仲夸大将来将是互补共存:“CPU作为通用‘总指挥’因其成熟与经济性而难以被镌汰。GPU则专注于加快矩阵乘法盘算。我们的模仿盘算芯片,旨在更高效地处置惩罚AI等范畴最耗能的矩阵逆运算,是对现有算力体系的有力增补。”: R7 d4 T9 N9 A4 E6 s; @% O$ i. i; |
泉源:北京大学、科技日报
$ I1 t3 q+ L. I2 C. L& S(文章泉源:人民日报) |