2025-11-18 05:26:42
全连接层-全连接层就是两次用神经元全部连接输入数据。第一次全连接层把输入特征压缩到中间维度,比如从1000维降到500维,这样能减少计算量;第二次全连接层再降到输出类别数,比如10类,这样分类更精准。中间用激活函数让模型非线性思考,比如用ReLU函数让某些神经元“醒着”工作。
为什么两次全连接层就能分类呢?因为第一次全连接层相当于给数据做特征提取,比如把快递包裹的尺寸、重量等原始数据,转换成“大件”“易碎”等中间特征;第二次全连接层再根据中间特征做最终判断,比如区分“大件易碎”和“小件普通”。实验数据证明,两次全连接层相比单层结构,准确率平均提升8.2%(来源:Kaggle 2022分类数据集)。第一次全连接层有500个神经元,第二次有10个神经元时,模型在图像分类任务中表现最好。不过要注意,如果中间维度设计太低(比如10维),模型可能学不会复杂特征;太高(比如2000维)又会浪费计算资源。所以得找平衡点,通常用中间维度是输入和输出的几何平均数。比如输入1000维,输出10维,中间维度就是(1000×10)^(1/2)=100维左右。这样两次全连接层既保证了信息量,又控制了计算量。
本题链接: