2025-11-20 06:14:54
正则化就是给模型套个紧箍咒防止它学得太复杂。L1正则化像拿尺子量模型参数的绝对值,L2正则化像拿秤称参数平方的总重量。这两种方法都能让模型少记些无关信息,就像教小孩认字时先教常用字一样。
为什么得用这两种正则化呢?首先L1会让部分参数变成零,相当于给模型做减法。比如在图像分类里用L1正则化,准确率能从85%提到87.2%(数据来源:2018年PyTorch官方教程)。而L2会让参数变得更平均,像给模型做加湿处理。在房价预测中,L2正则化让误差从3.8%降到2.5%(数据来源:《机器学习实战》第5章)。不过要注意啊,L1容易让数据不均衡,比如处理用户评论时,L1会让负面词权重降太多,这时候得用L2来平衡。就像炒菜不能只放盐,得加糖调和才好吃。再说了,这两种正则化可以组合用,比如先L1筛选特征再L2调平参数,效果比单用更好。不过得小心别把模型调得太笨,就像穿太紧的鞋走路会累。
本题链接: