免费领取大会全套演讲PPT    

立即领取

王言治

美国东北大学电子与计算机工程系副教授

王言治目前是美国马萨诸塞州波士顿东北大学电子与计算机工程系的副教授兼学院研究员。他于2009年获得清华大学学士学位,2014年获得南加州大学博士学位。他的研究兴趣主要集中在深度学习应用的模型压缩和平台特定加速方面。他的研究成果广泛发表在顶级会议和期刊上(如 DAC、ICCAD、ASPLOS、ISCA、MICRO、HPCA、PLDI、ICS、PACT、ISSCC、AAAI、ICML、NeurIPS、CVPR、ICLR、IJCAI、ECCV、ICDM、ACM MM、FPGA、LCTES、CCS、VLDB、PACT、ICDCS、RTAS、Infocom、C-ACM、JSSC、TComputer、TCAS-I、TCAD、TCAS-I、JSAC、TNNLS 等),被引用超过18,000次。他曾获得六项最佳论文奖和顶级论文奖,以及一次《通讯》(Communications of the ACM)封面专题文章的荣誉。

演讲主题

揭秘大模型训练---完全开源透明的大模型:从预训练到增强学习

简介:近年来,大型语言模型(LLMs)经历了显著的变革,其受欢迎程度和能力均呈现快速增长的趋势。GPT-4 和 GPT-o1 等专有 LLMs 以其强大的性能和广泛的适用性吸引了 AI 社区的广泛关注。同时,LLaMA 和 DeepSeek等开源 LLMs 也凭借其易于定制和部署的特性,为 LLMs 的普及做出了巨大贡献。尽管 LLMs 为研究和创新带来了前所未有的机遇,但其商业化进程也引发了关于透明性、可复现性和安全性的担忧。许多开源 LLMs 缺乏完整的组件(如训练代码和数据),使得全面理解和复现变得困难。此外,一些模型虽然自称“开源”,却采用了限制性许可,这可能会阻碍 LLMs 的进一步创新。为缓解这一问题,我们遵循模型开放性框架(MOF),该框架是一种分级分类系统,依据开放科学、开源、开放数据和开放访问等原则,对机器学习模型的完整性和开放程度进行评估。基于此,我们推出了一款真正开源的 LLM——Moxin 7B,并公开其预训练代码及配置,训练和微调数据,以及检查点,以持续推动 LLMs 的完全开源化。

© boolan.com 博览 版权所有

沪ICP备15014563号-6

沪公网安备31011502003949号