首页

计算机学科前沿论坛之七——模型压缩真的能为我们节约能耗吗

发布日期:2022-10-17      新闻来源:       责任编辑:沙艳      地点:计算机楼A501/腾讯会议:220-430-935                日期:2022.10.19

计算机学科前沿论坛之七

报告题目:模型压缩真的能为我们节约能耗吗

报告人:周天异 新加坡国立大学 副教授

报告时间:20221019日下午2:00-2:40

地点:计算机楼A501

腾讯会议:220-430-935


报告摘要:边缘设备需要低能耗的小模型。为了在边缘设备上有效地部署卷积神经网络 (CNN) 模型,能耗敏感的模型压缩变得极为重要。然而现有的工作并没有很好地解决这个问题,因为缺乏考虑硬件架构中数据流类型的多样性。在本次报告中,我将介绍我们最近名为 EDCompress 的工作,这是一种适用于各种数据流的能耗敏感的模型压缩方法。它可以有效降低各种边缘设备的能耗,具有不同的数据流类型。考虑到模型压缩过程的本质,我们将优化过程重铸为多步优化问题,并通过强化学习算法解决。研究表明,EDCompress 可以在 VGG-16MobileNetLeNet-5 网络中分别提高 201737倍的能效。 EDCompress 还可以针对不同神经网络在能耗方面找到最佳数据流类型,这可以指导 CNN 模型在硬件系统上的部署。


报告人简介:周天异,副教授,毕业于新加坡南洋理工大学,获博士学位。现为新加坡科技研究局前沿人工智能中心团队负责人(Investigator)和新加坡国立大学副教授。周天异博士主持多项新加坡重点研发项目,并且已在机器学习, 人工智能,信息安全等领域核心期刊(JCR一区)和国际会议(CCF A)上发表论文100余篇; 此外是IEEE TETCI , IET Image Processing, 等国际重要SCI 期刊的副主编;是多个国际顶级/重要学术会议(例如CCF A类会议IJCAI)等的专题报告组织联合主席和国际旗舰会议MOBIMEDIA 2020 技术程序委员会联合主席;获得IJCAIECCV, ICDCS等多个国际顶级/重要学术会议及其专题报告会最佳论文奖;担任ICLR, AAAI, IJCAI, ICME 等国际顶级会议领域主席。