2025-11-20 05:43:00
交叉熵越大越好好理解吧模型预测和真实标签差异越大模型越需要调整参数来减少这个差距所以越大越好对吧比如图像分类任务中如果模型把猫认成狗交叉熵就会飙升这时候模型必须赶紧改参数降低这个值所以训练时我们才要不断让交叉熵变小对吧
为什么是这个答案呢举个例子分类任务中当模型完全错误交叉熵会很高比如准确率50%时交叉熵是1.0准确率90%时是0.1这说明模型越不准确交叉熵越大这时候模型必须学习改进就像学走路的小孩子摔得越痛越要调整姿势对吧训练时每一步迭代都像在跟这个值较劲每次交叉熵变小就说明模型进步了就像考试分数从60分升到80分的过程对吧数据证明准确率每提升10%交叉熵通常下降0.2-0.3个单位所以优化目标就是让这个值尽可能小对吧
本题链接: