神经网络是一个总称,它包含了许多不同结构的神经网络,每种结构适合不同的任务,比如图像分类、时间序列预测、文本生成、推荐系统等等。
下面是常见的 神经网络结构类型,并配有中文解释、典型应用和优缺点:
🧠 1. 多层感知机(MLP)
Multilayer Perceptron
- 结构特点:多层全连接(Linear)层 + 激活函数(如 ReLU)
- 数据类型:表格数据、图像(简单任务)、手写数字等
- 优点:结构简单、泛用性强
- 缺点:无法处理局部特征和时间信息
🧠 2. 卷积神经网络(CNN)
Convolutional Neural Network
- 结构特点:包含卷积层、池化层,专门提取图像局部特征
- 数据类型:图像、视频、医学图像等
- 优点:参数少、擅长识别图像中的空间结构
- 缺点:对时间序列、文本等非图像任务不适用
📌 常见模型:LeNet, AlexNet, VGG, ResNet
🧠 3. 循环神经网络(RNN)
Recurrent Neural Network
- 结构特点:节点间有“循环连接”,前一时刻的输出影响当前输入
- 数据类型:时间序列、自然语言、语音等
- 优点:能处理有时间依赖的数据(如一句话)
- 缺点:难以捕捉长期依赖,训练困难
📌 常见变种:LSTM、GRU(改进了原始 RNN 的长期记忆能力)
🧠 4. Transformer 网络
- 结构特点:基于“注意力机制”,抛弃了 RNN 的时间顺序依赖
- 数据类型:文本、音频、图像生成、代码生成等
- 优点:并行处理能力强,能建模长期依赖
- 缺点:计算资源要求高,结构复杂
📌 典型模型:GPT、BERT、T5、ChatGPT、Baidu 文心、字节豆包
🧠 5. 自编码器(AutoEncoder)
- 结构特点:编码器将数据压缩成低维表示,解码器还原数据
- 用途:数据压缩、降维、特征提取、异常检测
- 优点:能学习无监督的特征表示
- 缺点:生成效果不如 GAN,可能学不到语义
📌 变体:变分自编码器(VAE)
🧠 6. 生成对抗网络(GAN)
Generative Adversarial Network
- 结构特点:由一个生成器和一个判别器组成,互相对抗训练
- 数据类型:图像生成、人脸生成、艺术风格转换等
- 优点:生成质量高,效果逼真
- 缺点:训练不稳定,容易模式崩溃(mode collapse)
🧠 7. 图神经网络(GNN)
Graph Neural Network
- 结构特点:处理图结构数据(如社交网络、知识图谱)
- 数据类型:节点、边、图(Graph)
- 优点:能建模复杂关系(如用户-商品之间的连接)
- 缺点:训练复杂、对大规模图不友好
📌 应用:推荐系统、分子结构分析、知识图谱推理等
🧠 8. 注意力机制(Attention Mechanism)
- 本身不是独立网络结构,但常作为模块嵌入其他网络(尤其 Transformer)
- 功能:让模型关注输入中最相关的部分
- 优点:提高性能、解释性强
- 应用:翻译、摘要、问答、代码理解等
🧠 9. 残差网络(ResNet)
- 结构特点:使用“跳跃连接”(skip connection)来解决深层网络的梯度消失问题
- 优点:允许训练非常深的神经网络(如 50 层、101 层)
- 缺点:结构更复杂,对初学者有一定门槛
✅ 汇总表格:
网络结构 | 简称 | 擅长处理的数据 | 典型应用 | 是否属于深度学习 |
---|---|---|---|---|
多层感知机 | MLP | 表格、图像(简单) | 分类、回归 | ✅ 是 |
卷积网络 | CNN | 图像、视频 | 图像识别、医学诊断 | ✅ 是 |
循环网络 | RNN | 时间序列、文本 | 语音识别、翻译 | ✅ 是 |
Transformer | - | 文本、语音、代码 | ChatGPT、翻译、摘要 | ✅ 是 |
自编码器 | AE | 任意数据 | 压缩、特征提取 | ✅ 是 |
GAN | GAN | 图像、音频等生成任务 | 捏脸、图像生成 | ✅ 是 |
图神经网络 | GNN | 图(节点+边) | 推荐系统、社交分析 | ✅ 是 |
ResNet | - | 图像、视频 | 深层分类模型 | ✅ 是 |