注册
|
登录
|
举报
首 页
公告沙龙
公告中心
活动沙龙
课程学习
项目交流
项目招募
问答中心
信息展示
项目展示
往年项目展示
校内导师
校外导师
使用指南
文件下载
常见问题
×
举报该页有违规/非法信息
网址:
附加说明:
最新版
最新
面向大规模深度学习模型的轻量化压缩研究
电子工程学院
Research on Lightweight Compression for Large Scale Deep Learning Models
终检失败
创新训练
520计算机科学技术
理论研究-科学技术
未定级
以GPT系列为首的大语言模型对NLP乃至整个深度学习领域带来了巨大的冲击和潜在机会,然而大模型的规模限制伴随着大量的GPU资源消耗,导致无论是微调迁移到下游任务还是在进用户侧部署都极具挑战,如何针对大模型进行Parameter-Efficient Fine-Tuning(PEFT)及压缩部署是当下亟待解决的问题之一。本项目旨在保证大模型性能的前提下,探索大模型的微调及轻量化技术,提高其泛在场景的可用性。
项目分数
项目信息
项目动态
项目相关人员
项目荣誉
留言
重要程度:
全部信息
细节信息
正常信息
重要信息
项目负责人
张苗忱
2021级 电子工程学院 电子科学与技术
项目成员
张云泽
2021级 电子工程学院 电子信息类
何桂炎
2021级 电子工程学院 电子科学与技术
冯一娜
2021级 电子工程学院 电子科学与技术
指导老师
滕颖蕾
电子工程学院 教授
通信网络
智能制造
智能交通
评审老师
崔岩松
电子工程学院 教授
数字教育
黄建明
电子工程学院 副教授
电子商务
智能制造
智能硬件
暂无留言
留言
提交
该项目暂无荣誉