人工智能
本版块介绍人工智能相关的知识
人工智能层次结构图
人工智能(AI)
│
├── 传统AI(符号主义 / GOFAI)
│ ├── 专家系统(Expert Systems)
│ ├── 知识表示与逻辑推理(Knowledge Representation & Reasoning)
│ └── 规划与搜索算法(Planning and Search)
│
├── 机器学习(Machine Learning, ML)
│ ├── 监督学习(Supervised Learning)
│ │ ├── 线性回归(Linear Regression)
│ │ ├── 逻辑回归(Logistic Regression)
│ │ ├── 决策树 / 随机森林(Decision Trees / Random Forests)
│ │ └── 支持向量机(SVM)
│ │
│ ├── 无监督学习(Unsupervised Learning)
│ │ ├── 聚类(Clustering:K-Means, DBSCAN 等)
│ │ └── 降维(PCA, t-SNE, UMAP)
│ │
│ ├── 半监督学习(Semi-Supervised Learning)
│ │ └── Pseudo-Labeling, Consistency Regularization
│ │
│ ├── 自监督学习(Self-Supervised Learning)
│ │ ├── SimCLR / BYOL / MoCo
│ │ └── MAE / BERT(在预训练中属于自监督)
│ │
│ ├── 强化学习(Reinforcement Learning, RL)
│ │ ├── Q-Learning / DQN
│ │ ├── Policy Gradient
│ │ ├── Actor-Critic / PPO / A3C
│ │ └── 多智能体强化学习(Multi-Agent RL)
│ │
│ └── 深度学习(Deep Learning, DL)← 是 ML 的一个子集
│ ├── 人工神经网络(ANN)
│ ├── 卷积神经网络(CNN) ← 图像处理
│ ├── 循环神经网络(RNN / LSTM / GRU) ← 序列/时间序列
│ ├── Transformer(用于 NLP, Vision, 多模态)
│ └── 图神经网络(GNN) ← 图结构数据
│
└── 生成式人工智能(Generative AI)
├── GAN(生成对抗网络)
├── VAE(变分自编码器)
├── Diffusion Models(扩散模型,如 Stable Diffusion)
├── 大语言模型(LLMs,如 GPT、Claude、Gemini)
├── 文本生成(Text Generation)
├── 图像生成(Image Generation)
└── 音频/视频生成(如 TTS、Video Diffusion)
拓展说明
- 强化学习 可使用 深度学习 技术,这称为 深度强化学习(Deep RL)。
- 生成式 AI 跨多个子领域,如同时使用 Transformer(DL)+ RLHF(RL)+ 自监督预训练。
- 自监督学习 是连接“无监督”和“预训练”思想的重要桥梁,正在成为核心技术。
“把线性回归、逻辑回归、决策树等归为‘传统监督学习’,那这些不是深度学习的基础吗?为什么不把它们归到深度学习里?”
层级 含义 示例 机器学习(ML) 总范畴:机器通过数据学习规律的所有方法 回归、分类、聚类、强化学习等 深度学习(DL) 机器学习的一种具体技术:使用深层神经网络 CNN、RNN、Transformer 传统机器学习(non-DL ML) 不使用深度网络的经典方法 线性回归、决策树、SVM、KNN 从技术演化关系来看:
是的,它们是深度学习的“先辈”,即:
- 线性回归 → 感知机 → 多层感知机(MLP)→ 深度神经网络
- 换句话说,深度学习模型确实是在早期机器学习模型的基础上演化而来的
但这不意味着它们“属于”深度学习。它们本身是 非神经网络模型,并不依赖“深层网络结构”,所以它们被分类为传统监督学习方法。
从现代学术分类来看:
在大多数课程、书籍、论文中,分类如下:
机器学习(ML)
├── 传统方法(Non-DL ML): 逻辑回归、SVM、决策树等
└── 深度学习(DL): MLP、CNN、RNN、Transformer等即使这些传统模型为深度学习奠定了理论基础,它们仍被单独列为非深度学习的算法,因为:
- 它们不具备“多层结构”
- 通常不使用 GPU、大规模训练等深度学习方法
- 参数量小、可解释性强