• 首页
  • 学院概况
    学院简介 现任领导 组织机构 学科概况
  • 师资队伍
    学院教师
  • 人才培养
    本科生教育 研究生教育 基层教学组织
  • 科学研究
    学术交流 科研平台
  • 党群工作
    党群动态 规章制度 学院工会 关工委 妇委会
  • 学生工作
    组织架构 学工动态 规章制度 青春榜样
  • 校友工作
    校友动态 校友风采
首页
  • 新闻动态
  • 通知公告
  • 学术交流
  • 学生活动
  • 师生风采
  • 教学科研
学术交流
首页 > 学术交流 > 正文

计算机学科前沿论坛之七——模型压缩真的能为我们节约能耗吗

日期:2022-10-17 责任编辑:沙艳 浏览量:
地点: 计算机楼A501/腾讯会议:220-430-935 报告人: 周天异
日期: 2022.10.19

计算机学科前沿论坛之七

报告题目:模型压缩真的能为我们节约能耗吗

报告人:周天异 新加坡国立大学 副教授

报告时间:2022年10月19日下午2:00-2:40

地点:计算机楼A501

腾讯会议:220-430-935


报告摘要:边缘设备需要低能耗的小模型。为了在边缘设备上有效地部署卷积神经网络 (CNN) 模型,能耗敏感的模型压缩变得极为重要。然而现有的工作并没有很好地解决这个问题,因为缺乏考虑硬件架构中数据流类型的多样性。在本次报告中,我将介绍我们最近名为 EDCompress 的工作,这是一种适用于各种数据流的能耗敏感的模型压缩方法。它可以有效降低各种边缘设备的能耗,具有不同的数据流类型。考虑到模型压缩过程的本质,我们将优化过程重铸为多步优化问题,并通过强化学习算法解决。研究表明,EDCompress 可以在 VGG-16、MobileNet、LeNet-5 网络中分别提高 20、17、37倍的能效。 EDCompress 还可以针对不同神经网络在能耗方面找到最佳数据流类型,这可以指导 CNN 模型在硬件系统上的部署。


报告人简介:周天异,副教授,毕业于新加坡南洋理工大学,获博士学位。现为新加坡科技研究局前沿人工智能中心团队负责人(Investigator)和新加坡国立大学副教授。周天异博士主持多项新加坡重点研发项目,并且已在机器学习, 人工智能,信息安全等领域核心期刊(JCR一区)和国际会议(CCF A类)上发表论文100余篇; 此外是IEEE TETCI , IET Image Processing, 等国际重要SCI 期刊的副主编;是多个国际顶级/重要学术会议(例如CCF A类会议IJCAI)等的专题报告组织联合主席和国际旗舰会议MOBIMEDIA 2020 技术程序委员会联合主席;获得IJCAI,ECCV, ICDCS等多个国际顶级/重要学术会议及其专题报告会最佳论文奖;担任ICLR, AAAI, IJCAI, ICME 等国际顶级会议领域主席。

  • 附件【计算机学科前沿论坛之七.docx】已下载次

上一篇:计算机学科前沿论坛之八——基于魔方矩阵的信息隐藏方法 下一篇:计算机学科前沿论坛之六——面向分布外泛化的稳定学习和NICO Challenge
大学计算机
基础课程预约
专业认证资料
管理系统
全国计算机等级
考试报名
基础试验网
专业资源网
会议室、实验室
使用预约
报修预约

邮编:221116 联系电话:0516-83591709

地址:江苏省徐州市大学路1号中国矿业大学南湖校区

版权所有:中国矿业大学计算机科学与技术学院/人工智能学院

官方微博
微信公众号