2025-11-20 05:56:45
训练集loss低是因为模型在学的时候只记住了训练数据里的规律,就像小孩背课文只背熟了课本上的句子,遇到目就答不上来。比如训练集用了1000张猫狗图片,模型把每张图片的像素都背得门儿清,但测试集有200张不同角度的猫狗图,模型就乱答一气了。
为什么是这个答案呢?因为训练集和测试集的数据分布不一样,就像用同一把尺子量不同形状的物体。比如训练集的猫都是正面照,测试集有侧面的猫,模型没见过侧面猫就猜错了。数据显示训练集准确率95%,测试集只有85%,差了10%。这10%的差距说明模型没学通真正的规律。验证集就像老师出的模拟题,提前告诉模型“这些数据代表新情况”,但很多人训练时没用验证集调参,结果模型在训练集上越学越偏。比如某团队用了5轮循环训练,每轮都只用训练集,结果测试集准确率从80%掉到75%。这就是数据分布不同导致的过拟合,就像用学猫叫的狗去抓兔子,抓不到是因为它只会叫“喵”。
本题链接: