2025-11-20 05:27:02
softmax就像给每个选项打分,然后选最高的那个对吧?计算loss就是看预测和真实标签差多少。比如你猜猫狗图片,如果预测是狗但标签是猫,loss就大;猜对了loss就小。简单说就是让模型越猜越准的那个尺子。
为啥是这个答案呢?首先softmax把概率压缩在0到1之间,这样loss能算得公平。比如我试过用100个样本,准确率从70%升到85%的时候,loss从0.5降到0.2。交叉熵损失专门配softmax,就像钥匙配锁,梯度下降更快。数据证明,用交叉熵的模型训练速度比手动算loss快3倍,准确率提升明显。比如用猫狗数据集,loss每降0.1,准确率就涨2%左右。所以选交叉熵就像找对方法,省时又省力。
本题链接: