广告

你的AI芯片有自己的DNN吗?

2019-10-10 12:35:30 Junko Yoshida 阅读:
为了让AI加速器在最短延迟内达到最佳精准度,特别是在自动驾驶车中,TFLOP已经成为许多所谓大脑芯片的关键指针,然而,有专家认为这种野蛮处理方式并不可持续…

为了让人工智能(AI)加速器在最短延迟内达到最佳精准度,特别是在自动驾驶车(AV)中,TFLOP(兆次浮点运算)已经成为许多所谓大脑芯片的关键指针。这场竞赛的选手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自动驾驶(FSD)计算机芯片,以及NXP-Kalray芯片。BJTednc

然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale执行长Forrest Iandola提出其不可持续的理由,是因为AI硬件设计师所持有的许多常见假设已经过时。随着AI应用日益增多,AI供货商从中积累更多的经验,这导致不同的AI任务开始需求不同的技术方法。如果事实的确如此,AI使用者购买AI技术的方式将会改变,供货商也必将做出回应。BJTednc

20191008NT31P1BJTednc

DeepScale执行长Forrest IandolaBJTednc

Iandola表示,就拿神经网络架构搜寻(NAS)为例,其快速发展不仅加快优化深度神经网络(DNN)的搜寻过程,并降低这一过程的成本。他相信有一种方法可以“在目标任务和目标运算平台上建立最低延迟、最高精准度的DNN,”而不是依赖于更大的芯片来处理所有的AI任务。BJTednc

Iandola设想未来AI芯片或传感器系统(如计算机视觉、雷达或光达)供货商不仅提供硬件,而且还会提供自己的高速、高效的DNN——为应用而设计的DNN架构。任何供货商都会为不同的运算平台匹配各自所需的DNN,如果事实真是如此,那AI竞赛中的所有赌注都将失效。BJTednc

需要明确的是,目前无论是芯片公司还是传感器供货商都没有提出上述前景。甚至很少有人在特定硬件上运作有针对性AI任务的可能性。BJTednc

Iandola及其DeepScale团队最近设计了一系列DNN模型,称为“SqueezeNAS”。在最近的一篇报告中,他们声称,当在目标平台上搜寻延迟时,SqueezeNAS“可以建立更快、更准确的模型”。这篇报告推翻了AI小区先前对NAS、乘积累加(MAC)运算和将ImageNet精确度应用于目标任务时所做的一些假设。BJTednc

DeepScale于2015年由Iandola和Kurt Keutzer教授共同创立,是一家位于加州山景城的新创公司,致力于开发“微型DNN”。两位联合创始人曾在加州大学柏克莱大学分校共事,DeepScale因其快速高效的DNN研究而在科学界备受推崇。BJTednc

手工设计(Manual designs)

要想真正理解机器学习在计算机视觉方面的最新进展的意义,需要了解其发展历史。BJTednc

还记得AlexNet网络结构模型在2012年赢得ImageNet影像分类竞赛吗?这为研究人员打开了竞争的大门,让他们专注于ImageNet研究,并寻找能够在计算机视觉任务上达到最高精准度的DNN,以此开展竞争。BJTednc

20191008NT31P2BJTednc

ImageNet分类错误统计。(数据源:ResearchGate)BJTednc

通常,这些计算机视觉研究人员依靠专家工程师,他们会手工设计快速且高精准度的DNN架构。BJTednc

从2012年到2016年,他们提高了计算机视觉的准确性,但都是透过大幅增加执行DNN所需资源来实现这一目标。Iandola解释,例如,赢得2014年ImageNet比赛冠军的VGGNet,其使用的运算量是AlexNet的10倍,参数是AlexNet的2倍。BJTednc

到2016年,学术研究界发现利用增加DNN的资源需求来提高准确性“不可持续”。SqueezeNet便是研究人员寻找的众多替代方案之一,由Iandola及其同事在2016年发表,它展示出在微小预算(低于5MB)参数下ImageNet的“合理的准确性”。BJTednc

Squeezenet引发了两个重大变化。相对于SqueezeNet和其他早期运算而言,MobileNetV1能够大幅度减少MAC的数量,Shufflenetv1是为行动端CPU实现低延迟而优化的DNN。BJTednc

利用机器学习改善机器学习

如前所述,所有这些先进DNN都是透过手工设计和调整神经网络架构开发而成。由于手工流程需要专业的工程师大量的除错,这很快就成为一个成本太高、耗时太久的提议。BJTednc

因而基于机器学习,实现人工神经网络设计自动化的理念,NAS应运而生。NAS是一种搜寻最佳神经网络架构的算法,并改变了AI格局。Iandola称,“到2018年,NAS已经开始构建能够以较低延迟运行的DNN,并且比以前手工设计的DNN产生更高的准确性。”BJTednc

强化学习(Reinforcement Learning)

随后,计算机视觉界开始使用基于机器学习的强化方法——强化学习。换句话说,“机器学习得到回馈来改善机器学习,”Iandola解释。在基于强化学习的NAS下,未经训练的强化学习获得建议,指定层数和参数来训练DNN架构。一旦对DNN进行训练,训练运作的结果将作为回馈,从而推动强化学习执行更多DNN来展开训练。BJTednc

经证明,基于强化学习的NAS是有效的。Google MnasNet就是一个很好的例子,它在ImageNet延迟和准确性方面都优于ShuffleNet。但它也有一个关键的弱点:成本太高。基于强化学习的搜寻通常需要数千个GPU天(GPU day),以训练数百乃至数千个不同的DNN,才能生成理想的设计。“Google负担得起,”Iandola表示,但大多数其他公司负担不起。BJTednc

现实地说,一个基于强化学习的NAS要训练一千个DNN,每个DNN通常需要一个GPU天。考虑到目前亚马逊(Amazon)云端服务平台的价格,Iandola估计,一个使用基于强化学习的NAS搜寻所花费的云端运算时间可能耗资高达7万美元。BJTednc

超级网络(Supernetwork)

在这种情况下,去年底出现了一种新的NAS类型,称为基于“超级网络”的搜寻。它的典型代表包括FBNet(Facebook柏克莱网络)和SqueezNet。BJTednc

20191008NT31P3BJTednc

搜寻时间减少100倍。(数据源:DeepScale)BJTednc

Iandola解释:“超级网络采用一步到位的方法,而不是培训1,000个独立的DNN。”例如,一个DNN有20个模块,每个模块有13个选项。若为每个模块选择一个最喜欢的选项,“你正在以10个DNN训练运作花费为代价,一次性训练一个汇集了千兆种DNN设计的DNN,”Iandola解释。BJTednc

结果显示,基于超级网络的NAS可以在10个GPU天的搜寻时间内建立DNN,其延迟和准确性优于MnasNet。“这让搜寻成本从7万多美元减少到大约700美元的亚马逊云端服务GPU时间,”Iandola说。BJTednc

“10个GPU天”的搜寻时间相当于在一台如衣柜般大小的8 GPU机器上花费一天的时间,”Iandola解释。BJTednc

20191008NT31P4BJTednc

基于强化学习与基于超级网络的NAS比较。(数据源:DeepScale)BJTednc

过时的假设

机器学习的简短历史向我们展示神经结构搜寻的出现如何为计算机视觉研究奠定基础。但是在这个过程中,它也反驳了研究团体早期的一些假设,Iandola指出。BJTednc

那么,哪些假设需要纠正呢?BJTednc

Iandola称,大多数AI系统设计者认为,ImageNet分类中最精确的神经网络可以为目标任务提供最精确的骨干网络。但计算机视觉包括许多AI任务——从目标检测、分割和3D空间到目标追踪、距离估计和自由空间等。“并非所有任务都是平等的,”Iandola强调。BJTednc

ImageNet的准确性与目标任务的准确性没有太紧密的关联。“这没法保证。”他说。BJTednc

来看由Iandola团队创建的SqueezeNet。Iandola解释,这是一个小型的神经网络,它的ImageNet分类精准度明显低于VGG,但在“用于辨识一组影像中相似斑块的任务”时,它比VGG更准确。BJTednc

随着分类任务达到极限,Iandola坚信是时候为不同的任务设计不同的神经网络了。BJTednc

另一个普遍的假设是“在目标运算平台上减少MAC将产生更低的延迟。”然而,最近的研究说明,减少MAC与减少延迟并无太大关联。“拥有较少MAC的神经网络并不总是能够实现较低的延迟,”Iandola指出。BJTednc

在Iandola的SqueezeNAS报告中,他坚持认为,不仅仅是不同的AI任务需要不同的DNN。为目标运算平台(如CPU、GPU或TPU的特定版本)选择合适的DNN也非常重要。BJTednc

例如,他引用了为不同智能型手机优化网络的FBNet作者的话。他们发现DNN在iPhonex上运作得很快,但在三星Galaxy S8上执行得很慢。在报告中,Iandola的团队总结,“即使MAC的数量保持不变,不同的卷积维数也会根据处理器和核心实现决定运作得更快或更慢。”BJTednc

对自动驾驶的影响

今天,DeepScale已经与多家汽车供货商建立了合作关系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其他未透露名称的公司。DeepScale一直在开发微型DNN,该公司声称,他们在保证最先进的性能的同时,它们需要的运算量更少。BJTednc

在SqueezNas的报告中,Iandola和他的同事解释,其团队使用基于超级网络的NAS来设计一个用于语义分割的DNN,用于辨识道路、车道、车辆和其他物体的精确形状等具体任务。“我们对NAS系统进行配置,以优化Cityscapes语义分割数据集的高精准度,同时在小型车辆级运算平台上实现低延迟。”BJTednc

随着SqueezNAS的发展,DeepScale对自己的定位是:在优化DNN、AI硬件和特定AI任务之间的协同关系方面成为先行者。BJTednc

随着AI芯片即将席卷市场,Iandola认为系统设计师必须明智地选择加速器。他们应该确切地考虑硬件应该执行哪种AI任务,以及硬件加速器应该在哪种神经网络上运作。BJTednc

安全摄影机、自动驾驶车和智能型手机都将使用AI芯片。考虑到每个系统所需的速度、准确性、延迟和应用程序大不相同,确定合适的硬件和NAS就变得至关重要。BJTednc

Iandola表示,对于OEM车厂来说,要把一个测试版自动驾驶车变成一个商业产品,必须把目前储存在自动驾驶车后行李箱中的刀锋服务器抽取出来。Iandola预测,汽车制造商可能会要求硬件芯片公司提供适合硬件平台的优化DNN。BJTednc

对于Nvidia这样的公司来说,这可能不成问题,因为它的GPU得到了一个大型软件生态系统的支持。然而,大多数其他AI硬件供货商将会吓出一身冷汗。BJTednc

此外,随着一系列新的传感器——摄影机、光达和雷达——被设计进自动驾驶车,汽车OEM将面临一些残酷的现实,例如,每个传感器可能使用不同类型的神经网络。另一个例子是,不同品牌设计的光达使用不同的AI硬件。Iandola指出,“今天,无论是传感器供货商还是AI处理器公司都没有提供针对其硬件进行优化推荐的神经网络。”BJTednc

Iandola表示,OEM车厂和一级零组件供货商将开始要求优化DNN,以匹配特定硬件和AI任务,这将无法避免。“我们相信,使用NAS优化目标运算平台上的低延迟变得越来越重要。”BJTednc

随着基于超级网络的NAS出现,NAS的成本已经在下降。因此,现在可能是时候让硬件供货商开始寻找自己的优化DNN。当被问及DeepScale是否计划透过合作、授权或为AI硬件公司开发优化DNN来填补这一缺口时,Iandola说,“我们还没有真正考虑过这个问题。”BJTednc

(参考原文: Does Your AI Chip Have Its Own DNN?,本文同步刊登于EE Times Taiwan 杂志10月刊)BJTednc

Junko Yoshida
ASPENCORE全球联席总编辑,首席国际特派记者。曾任把口记者(beat reporter)和EE Times主编的Junko Yoshida现在把更多时间用来报道全球电子行业,尤其关注中国。 她的关注重点一直是新兴技术和商业模式,新一代消费电子产品往往诞生于此。 她现在正在增加对中国半导体制造商的报道,撰写关于晶圆厂和无晶圆厂制造商的规划。 此外,她还为EE Times的Designlines栏目提供汽车、物联网和无线/网络服务相关内容。 自1990年以来,她一直在为EE Times提供内容。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
  • 纳米技术加持:生物光子学迎接医疗应用前景 本文介绍四个相关用例,说明以激光驱动的生物光子学结合纳米技术的应用如何共同实现更理想的医疗健康效果。
  • 复旦大学研究人员发明晶圆级硅基二维互补叠层晶体管 复旦大学研究团队将新型二维原子晶体引入传统的硅基芯片制造流程,实现了晶圆级异质CFET技术。相比于硅材料,二维原子晶体的单原子层厚度使其在小尺寸器件中具有优越的短沟道控制能力。
  • 宝马AI“超级大脑”上线,驱动在华数字化发展 近日,宝马率先在华部署了代号为“灯塔”(BEACON)的人工智能(AI)平台,提供AI应用创新相关的开发、部署、集成与运行服务的平台化环境,加速实现多业务场景数字化。
  • 西工大打破吉尼斯世界纪录,扑翼式无人机单次充电飞行15 据西北工业大学官宣其扑翼式无人机单次充电飞行时间获得新的吉尼斯世界纪录,认定的纪录时间为 2 小时 34 分 38 秒 62(突破 154 分钟)。本次刷新世界纪录的“云鸮”扑翼式无人机采用了高升力大推力柔性扑动翼设计、高效仿生驱动系统设计和微型飞控导航一体化集成等关键技术,翼展 1.82m,空载起飞重量为 1kg,手抛起飞,滑翔降落,能够按设定航线自主飞行,飞行过程中能实时变更航线。
  • 电化学腐蚀制备新技术发表,“一步到位”制作电池电极 据了解,天津大学“英才计划”特聘研究员吉科猛团队联合湖南大学谭勇文教授团队利用钴磷合金研发出了仅用一步即可制成电池电极的电化学腐蚀制备技术,该相关研究成果将于近日发表在国际期刊《先进材料》上。
  • 麻省理工开发出纸一样薄的太阳能电池,每公斤功率是传统 麻省理工学院称其工程师开发出超轻织物太阳能电池,可以快速轻松地将任何表面变成电源。这些耐用、灵活的太阳能电池比人的头发丝细得多,粘在坚固、轻便的织物上,使其易于安装在固定表面上。它们的重量是传统太阳能电池板的百分之一,每公斤产生的功率是传统太阳能电池板的18倍。
  • iPhone 15全面升级,Ultra版本或超万元起售 据多方消息,明年苹果将在手机产品线上进行大范围的升级,如今的Pro版将不再是最高端版本,而是将推出一个全新产品iPhone 15 Ultra。
  • 英特尔展示下一代半导体器件技术,计划2030年实现万亿级 日前,英特尔在IEDM上展示多项与半导体制造技术相关的研究成果:3D封装技术的新进展,可将密度再提升10倍;超越RibbonFET,用于2D晶体管微缩的新材料,包括仅三个原子厚的超薄材料;能效和存储的新可能,以实现更高性能的计算;量子计算的新进展。此外,英特尔表示,目标是在2030年实现在单个封装中集成一万亿个晶体管。
  • 通过GaN电机系统提高机器人的效率和功率密度 机器人应用成功的关键因素之一是确保最佳的电机驱动器设计。
  • 湖南大学:基于2D的范德华异质结构,可用于晶体管及存储器 电子工程研究的一个关键目标是开发高性能和高能效的计算设备,这意味着它们可以快速计算信息,同时消耗很少的能量。一种可能的方法是将执行逻辑操作的单元和存储组件组合到一个设备中。
  • Codasip宣布成立Codasip实验室,以加速行业前沿技术的开 Codasip今日宣布成立Codasip实验室(Codasip Labs)。作为公司内部创新中心,新的Codasip实验室将支持关键应用领域中创新技术的开发和商业应用,覆盖了安全、功能安全(FuSa)和人工智能/机器学习(AI/ML)等方向。
  • 了解机器感知:激光雷达、3D视觉和地理空间AI 随着人工智能(AI)和物理世界的交叉,以及自主技术采用的增加,有人可能会提出质疑,机器及其目前脆弱的模型如何能以人类的方式感知世界。借助于诸如激光雷达、雷达和摄像头等自动驾驶汽车上所使用的传感器技术,机器已开始能收集实时数据来为决策提供信息,并适应现实世界的场景。
广告
热门推荐
广告
广告
EE直播间
在线研讨会
广告
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了