您的位置:首页 >> 科技前沿

科技前沿

压缩算法为大语言模型“瘦身”
来源:科技日报    发布时间:2024-11-22 09:23:15         [关闭本页]

据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源、降低成本,还能推动LLM在手机和笔记本电脑上高效使用。

团队举例称,当人们使用ChatGPT时,请求会被发送到OpenAI公司的后端服务器进行处理。这一过程不仅成本高昂、能耗巨大,通常还很慢。如果用户想要使用消费级图形处理单元运行LLM,就需要对这些LLM进行压缩。

CALDERA算法通过减少LLM冗余并降低信息层的精度来发挥作用。“瘦身”后的LLM更加精简,可在手机或笔记本电脑等设备上存储和访问,同时提供了与未压缩版本几乎一样准确而微妙的性能。

虽然CALDERA并非首个压缩LLM的算法,但其独特之处在于兼具“低精度”和“低排序”两种特性。其中,“低精度”减少了比特数,加快了数据存储和处理速度。而“低排序”则降低了LLM数据中的冗余。

团队表示,使用CALDERA压缩的LLM可能适用于那些对精度要求不是最高的场景。此外,用户可在智能手机或笔记本电脑等设备上对压缩后的LLM进行微调,这使其能根据特定需求调整模型来增强隐私,而无需与第三方共享敏感数据。

不过团队也提醒道,在智能手机或笔记本电脑上运行LLM,可能会占用设备内存。

 

设为首页 | 加入收藏 | 领导信箱 | 监督举报 | 咨询留言 | 征集调查 |
Copyright ©2001-2025 濮阳市科学技术局主办 濮阳市科技创新综合服务中心承办
备案编号: 豫ICP备2021001807号       政府网站标识码:4109000036
Tel:0393-6661626 科技局办公室电话:0393-6666200 传真:0393-6666200

本网原创内容可免费转载,转载时请注明“来源:濮阳市科学技术局”。转载或引用本网内容必须是目的合理、善意引用,
不得对本网内容原意进行曲解、修改,并自负版权等法律责任。对于不当转载或引用本网内容而引起的民事纷争、行政处理或其他损失,
本网不承担责任,并有追究转载方法律责任的权利。