一、神经网络概述

1. 基本概念

  • ​人工神经网络 (ANN)​​:一种模仿生物神经网络结构与功能的计算模型。
  • ​生物神经元机理​​:树突接收输入信号,细胞核处理并聚集电荷,达到电位阈值后通过轴突输出电信号。
  • ​人工神经元机理​​:对多个输入进行​​加权求和​​,再通过一个​​激活函数​​产生输出。
    输出 = 激活函数(Σ(输入 * 权重) + 偏置)

2. 网络结构

一个典型的全连接神经网络包含以下层次:

  • ​输入层​​:接收原始数据。
  • ​隐藏层​​:介于输入和输出层之间,进行特征变换。可以有多个。
  • ​输出层​​:产生最终的预测结果。

​结构特点​​:

  • 信息单向传播(前向传播)。
  • 同一层的神经元之间无连接。
  • 第N层的每个神经元与第N-1层的所有神经元全连接。
  • 每个连接都有其权重(w)和偏置(b)。

3. 深度学习与机器学习的关系

  • ​深度学习是机器学习的一个子集​​。
  • 主要区别在于​​特征工程​​:
    • ​传统机器学习​​:严重依赖人工特征工程。
    • ​深度学习​​:模型通过多层神经网络​​自动学习​​数据的层次化特征表示。

二、激活函数

​作用​​:为网络引入​​非线性因素​​,使得神经网络能够拟合任意复杂的函数。若无激活函数,多层网络等价于一个线性模型。

常见激活函数对比

激活函数 公式 输出范围 特点 优点 缺点 适用场景
​Sigmoid​ f(x) = 1 / (1 + e⁻ˣ) (0, 1) S型曲线 输出可视为概率 1. 易产生​​梯度消失​​(导数范围(0, 0.25)
2. 非零中心
3. 计算含指数,较慢
​输出层​​(二分类)
​Tanh​ f(x) = (eˣ - e⁻ˣ) / (eˣ + e⁻ˣ) (-1, 1) 放大并平移的Sigmoid ​零中心​​,收敛速度比Sigmoid快 仍存在​​梯度消失​​问题 ​隐藏层​
​ReLU​ f(x) = max(0, x) [0, +∞) 简单阈值过滤 1. 计算高效,缓解梯度消失(正区间)
2. 带来网络稀疏性
​神经元死亡​​(负区间梯度为0) ​隐藏层​​(首选)
​Softmax​ f(xᵢ) = eˣⁱ / Σⱼeˣʲ (0, 1) 且和为1 多分类Sigmoid推广 将输出归一化为​​概率分布​ - ​输出层​​(多分类)

激活函数选择指南

  • ​隐藏层​​:
    • ​优先使用 ReLU​​,注意学习率设置以防“死亡神经元”。
    • ReLU效果不佳时,可尝试 Leaky ReLU 等变体。
    • 少用 Sigmoid,可尝试 Tanh。
  • ​输出层​​:
    • ​二分类​​:Sigmoid
    • ​多分类​​:Softmax
    • ​回归​​:恒等函数(即无激活函数)

三、参数初始化方法

权重初始化的好坏直接影响模型的收敛速度和最终性能。

常见初始化方法

  1. ​简单初始化​​:

    • ​均匀分布初始化​​:torch.nn.init.uniform_()
    • ​正态分布初始化​​:torch.nn.init.normal_()
    • ​全零初始化​​:torch.nn.init.zeros_() -> ​​导致神经元对称失效,禁止使用​​。
    • ​全一初始化​​:torch.nn.init.ones_() -> 效果差,一般不使用。
    • ​固定值初始化​​:torch.nn.init.constant_()
  2. ​高级初始化(推荐)​​:

    • ​Kaiming (He) 初始化​​:为解决ReLU激活函数设计的初始化方法。
      • 正态分布:std = sqrt(2 / fan_in)
      • 均匀分布:limit = sqrt(6 / fan_in)
      • fan_in:该层输入神经元的个数。
      • PyTorch API: torch.nn.init.kaiming_normal_(), torch.nn.init.kaiming_uniform_()
    • ​Xavier (Glorot) 初始化​​:为解决Sigmoid/Tanh等S型激活函数设计。
      • 正态分布:std = sqrt(2 / (fan_in + fan_out))
      • 均匀分布:limit = sqrt(6 / (fan_in + fan_out))
      • fan_in:输入神经元个数,fan_out:输出神经元个数。
      • PyTorch API: torch.nn.init.xavier_normal_(), torch.nn.init.xavier_uniform_()

初始化方法选择

  • ​通常优先使用 Kaiming 或 Xavier 初始化​​。
  • PyTorch 中许多层已有合理的默认初始化,但自定义层时需手动初始化。

四、神经网络的搭建与参数计算

1. 模型搭建步骤(PyTorch)

在PyTorch中,通过继承 nn.Module 类来定义模型。

import torch.nn as nn

class MyModel(nn.Module):
    def __init__(self, input_dim, hidden_dim, output_dim):
        super(MyModel, self).__init__() # 必须调用父类初始化
        # 定义网络层
        self.linear1 = nn.Linear(input_dim, hidden_dim)
        self.linear2 = nn.Linear(hidden_dim, output_dim)
        # 初始化权重
        nn.init.xavier_normal_(self.linear1.weight)
        nn.init.kaiming_normal_(self.linear2.weight)
        
    def forward(self, x):
        # 定义前向传播路径
        x = torch.sigmoid(self.linear1(x))
        x = self.linear2(x) # 输出层通常不加激活函数,损失函数中会集成
        return x

2. 参数量的计算

神经网络的参数量主要指​​权重(w)​​ 和​​偏置(b)​​ 的数量。

  • 对于一个全连接层:参数总量 = (输入特征数 + 1) * 输出特征数
    • +1 代表偏置项。
  • ​示例​​:一个输入为3个特征,输出为2个神经元的层,参数量为 (3 + 1) * 2 = 8
  • 可以使用 torchsummary 库的 summary(model, input_size) 函数自动计算和打印模型总参数量和各层细节。

3. 输入输出形状

  • ​输入张量形状​​:[batch_size, in_features]
  • ​输出张量形状​​:[batch_size, out_features]
  • 训练时使用 DataLoaderbatch_size 组织数据。

4. 神经网络的优缺点

  • ​优点​​:
    • 精度高,在诸多领域性能领先。
    • 能够近似任意复杂函数。
    • 社区成熟,有大量框架和库支持。
  • ​缺点​​:
    • ​黑箱模型​​,解释性差。
    • 训练时间长,计算资源消耗大。
    • 网络结构复杂,需要大量调参。
    • 在小数据集上容易​​过拟合​​。


Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐