向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

模拟与混合信号电路会否占领未来AI SoC高地?

时间:2019-11-11 作者:痴笑 阅读:
随着摩尔定律的发展,过去30年的集成电路发展的最主要趋势是数字化。数字化设计是目前大型SoC的基本方法学,越来越多的模拟电路进入全数字时代,All Digital PLL, Digital LDO, Time-domain based ADC,Digital PA,数字化/二值化方法成为了克服模拟电路瓶颈的重要手段。然而“羞于见人”的模拟电路并非一无是处。

年关岁尾,一大波喜讯正在排队赶来。比如,中国大陆机构在ISSCC 2020的论文数量首次突破了两位数,更有清华/电子科大多位教授的课题组实现了一年2篇ISSCC的突破。值此金秋盛景,亚洲芯片设计领域的最高会议——亚洲固态电路会议(Asian Solid State Circuit Conference, A-SSCC)也在澳门举行。除了不少研究成果和论文的展示,今年的ASSCC有一个更引人关注的Panel Discussion Session —— 模拟与混合信号电路会不会是未来AI SoC的主战场?小编很早就想就这个话题写一篇,恰逢大佬们的“华山论剑”,就借花献佛,以飨读者。hehednc

001ednc20191111hehednc

能效导向,模拟MAC称霸

可以说,随着摩尔定律的发展,过去30年的集成电路发展的最主要趋势是数字化。数字化设计是目前大型SoC的基本方法学,越来越多的模拟电路进入全数字时代,All Digital PLL, Digital LDO, Time-domain based ADC,Digital PA,数字化/二值化方法成为了克服模拟电路瓶颈的重要手段。hehednc

然而“羞于见人”的模拟电路并非一无是处。在能效上,基于模拟乘加(Multiply and accumulation, MAC)运算的电路实现具有显著优势。来自韩国KAIST的Seung-Tak Ryu教授比较了美国斯坦福大学与比利时鲁汶大学就同一算法,同一精度(二进制)神经网络实现的两个不同设计,一个以模拟MAC为基本计算单元、一个以数字MAC为基本计算单元。可以发现,基于开关电容的模拟计算的能效优势在10倍以上。hehednc

002ednc20191111hehednc

随着摩尔定律的发展进一步进入平台期,高校的工艺节点已经逐步停滞在28-65nm时,“模拟运算”的翻身仗似乎即将打响。其核心理论支撑是:数字电路的翻转电压幅度是整个Vdd,在1V数量级上,而模拟计算电路,特别是基于电压/电荷域计算,翻转电平可能只有10mV。而电路功耗是和翻转电压的平方律呈正比。hehednc

更进一步地,随着新器件与新算法的提升,各式阻变存储器与神经元突触相仿的特性赋予基于新器件的模拟计算新的机会。来自台湾国立清华大学的鄭桂忠教授特别比较了基于阻变存储器的模拟实现、混合信号实现与纯数字实现的突触设计,如下图。刨除精度和稳定性的问题,模拟设计无论在复杂度还是在功耗上都具有更明显的优势。(据小道消息指出,该领域已经成为了高性能计算的一大热点,ISSCC 2020 清华大学就有篇基于ReRAM的存算一体芯片。)hehednc

003ednc20191111hehednc

MAC不是AI的全部,模拟是么?

虽然模拟MAC的高能效令许多设计者怦然心动,但是其挑战也非常显著。最主要的问题来自于AI SoC的的可编程性。清华大学尹首一教授总结了目前AI SoC的可编程需求,虽然MAC占据了主要的算力,但是仍有其他运算。hehednc

004ednc20191111hehednc

与此同时,高性能AI SoC在可变精度的计算(bit-width)以及可重构的数据流(dataflow)上都有显著需求,而这些需求是目前的模拟运算无法考量的重点。毕竟,无论在电压/时间域上,要复制一个模拟信号的代价要远远比数字来的大。D触发器(DFF)可以无损地复制任意数字信号,而模拟信号的复制却要和电路的线性度、热噪声、PVT差异做抗争,每一次抗争的代价都是功耗与面积。hehednc

005ednc20191111hehednc

还不止这些,来自日本大阪大学的粟野皓光教授(Hiromitsu Awano)更是一针见血地指出了模拟计算在AI SoC产业化的过程中提到的问题,比如随着工艺变化的Scalability等。即使在能效领域,他也相信,随着摩尔定律的更进一步推动,先进工艺下的数字计算代价会越来越低,最终在SoC层面取得比模拟更高的优势。hehednc

006ednc20191111hehednc

另外,粟野教授也是所有Panelist和全场大量模拟电路设计者中唯一明确不看好模拟电路与混合信号在AI SoC发展的大佬。勇气可嘉!hehednc

模拟计算+领域专用+存算一体=?

这会不会是最终的胜利方程式呢?清华大学刘勇攀教授回顾了AI SoC处理器的发展流程,并指出现在已不再是入行通用AI SoC的时机。相形之下,应用专用/领域专用的AI SoC却有大把的机会。特别是在非易失性存储器上,通过模数混合的方法,结合AI计算与特殊器件的可计算特征无疑是一大趋势。hehednc

007ednc20191111hehednc

无独有偶,尹首一教授也在Thinker系列芯片的发展过程中,总结了AI芯片的规律。第一阶段,是领域专用体系结构上的发展,这个过程中可重构的并行计算体系结构推进了芯片的能效提升,然后很快地,冯诺依曼瓶颈(处理器与存储器间的带宽上限,亦称为“存储墙”)成为了第一阶段的最终挑战;于是第二阶段是存内计算的时代,但是目前为止存算一体仅仅能支持基本的MAC操作,而对于AI SoC的其他操作并不支持。由此,AI SoC发展的第三阶段,可重构架构的并行计算架构与存算一体的交叉产物呢?hehednc

008ednc20191111hehednc

重新定义模拟和数字的边界

作为一个专业的ADC/AI从业人员,小编一直认为AI SoC中的模拟计算给广大模拟爱好者带来了又一春。但是,在设计过程中不应该是单独将模拟计算分割出来看待,而是应该从SoC的角度反省模拟与数字的边界,或者是模拟到智能感知的转换过程。如果将目前模拟计算的MAC归纳为数字-模拟-数字的双重重转换过程,包含ADC/DAC整列,那么在智能传感器SoC中,前端的ADC加上多层模拟MAC,就变成了一个无数次模数和数模转换的怪物。hehednc

显然这个方法有点累赘。2018年的ISSCC上,哥伦比亚大学的Mingoo教授课题组就重新定义了模数转换的位置,将部分计算采用模拟电路实现,通过全局考量最小化量化的代价与功耗,将模拟与数字的边界放到特征提取以后,实现单比特的量化编码。(又有一个小道消息,ISSCC 2020上东南大学在此基础上进一步改善此架构,功耗又减小了一半。)hehednc

009ednc20191111hehednc

↑ 这页并不来自A-SSCC,而是痴笑君假装大佬的一页ppthehednc

综上所述,你觉得模拟计算/存算一体会不会成为AI SoC的一种选项呢?能不能啪啪啪打脸以下两位呢?hehednc

010ednc20191111hehednc

(本文授权转载于微信公众号矽说,作者:痴笑)hehednc

责编:Demi Xiahehednc

本文为EDN电子技术设计 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
您可能感兴趣的文章
  • 把“大数据”缩小,这家德国新创公司是如何做到的? 德国新创公司Teraki开发出可过滤并缩小“大数据”(big data)的嵌入式软件技术,不仅有助于提升数据处理效率,还可实现更准确的对象侦测与机器学习…
  • 苹果2亿美元收购人工智能公司,以改进Siri 苹果公司可能会将Xnor.ai的技术整合到未来的iPhone机型中,改进Siri以及其他基于人工智能和机器学习的任务。
  • 人工智能时代不断变化的工业格局 尽管AI技术并不是什么新鲜事物,但数据的爆炸式增长促使AI以惊人的速度发展,例如在百度和谷歌等数十亿次的搜索提供了相当大的实时数据集,支持了AI的蓬勃发展。
  • 攻克可视门铃设计中的难题 物联网(IoT)应用已纵向渗入几乎每一个行业,例如,出于安全目的,住宅、商业和工厂开始使用可视门铃。本文深入探讨了有关可视门铃的一些视频、音频和电源设计难题,以及解决这些难题所需的技术。
  • 人工智能技术翻转商业模式 人工智能(AI)活动AI Experience吸引了许多人参与,优秀的技术人员和演讲者从机器学习、物联网到智慧城市应用,为与会者展示了惊人的创新。边缘计算、人工智能、大数据,这些元素将与我们一起迈向不远的未来。人工智能可应用于制造行业的预测性维护及其它许多方面,它提供一系列技术来分析生产过程中收集的海量数据,并生成有用的信息,以实现并支持卓越的生产能力。
  • 人工智能应用于SDR的信号分析系统 在过去几年里,人工智能已经取得了长足的进步,尤其是机器学习技术中的深度学习。为了解决众多棘手问题,人类设计人员一直都在花费大量精力研究手动式工程解决方案,而深度学习则直接将目标对准了针对特定问题的大型复杂数据集。
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告