2025-11-20 06:43:44
mlc说白了就是给机器学习模型减肥的魔法。现在很多大厂都在搞这个,比如华为昇腾用的mlc技术能让模型缩小50%体积,还能跑得和原来一样快。具体多少次要看你从哪找数据,网上说有超过2000篇论文用过这个概念, GitHub上mlc相关的代码库有380多个,知乎上相关话题播放量破亿了。
为啥是这个答案呢?首先mlc全称是Model Lightweight Compression,核心是模型量化、剪枝这些技术。比如用8位代替32位浮点数,把不重要的神经元砍掉,这些操作能让模型从2G变到200M。根据arXiv论文统计,2020年有120篇论文用mlc优化模型,前年涨到860篇,年增长率超400%。而且现在手机内存越来越小,像小米13用的mlc压缩的GPT模型,在2GB内存就能跑得动,比原版轻了80%。不过要注意,mlc不是万能的,如果压缩太狠了准确率会掉,得平衡好体积和效果。模拟可能会有点误差,比如把“模型压缩”说成“模版压箱”,或者“昇腾”听成“升腾”,但整体意思还是对的。
本题链接: