神经网络是可理解的数学映射,本质为多层函数组合逼近复杂关系,由权重与偏置、激活函数、损失函数与优化器三大组件构成,层数增加带来表达能力跃升,动手实践最能建立直觉。
很多人初学神经网络时被“权重”“梯度”“反向传播”吓住,其实它的核心思想非常朴素:用多层函数组合去逼近任意复杂的关系。输入数据(比如一张图片的像素)经过加权求和、加偏置、再套非线性函数(如ReLU或Sigmoid),一层层传递,最终输出预测结果(比如“猫”或“狗”)。这个过程本质是高维空间中的分段线性变换+非线性激活——不是魔法,是可推导、可调试、可可视化的东西。
一个最小可用的神经网络必须包含:
单个感知机只能划直线(二维)或超平面(高维),解决不了异或(XOR)这类非线性问题。加入一个隐藏层后,神经网络就能拟合任意形状的决策边界——这是通用近似定理的直观体现。实践中,更深的网络(如CNN处理图像、RNN/LSTM处理序列)能自动学习层次
化特征:底层识别边缘/纹理,中层组合成部件,高层理解语义。但深度不是越多越好,需配合正则化(Dropout、L2)、批归一化(BatchNorm)防止过拟合和训练不稳定。
别卡在公式推导里。用PyTorch写一个两层全连接网络训练MNIST,50行内就能跑通:
跑起来之后,试着改学习率、换激活函数、删一层,观察准确率和损失曲线变化——错误和波动本身就在教你怎么理解网络行为。