实时演示:AI 学会玩贪吃蛇

DQN 从完全不懂规则开始,在浏览器里边玩边学——前几十局乱撞,之后越来越聪明。这就是深度强化学习。

局数
0
本局得分
0
历史最高
0
探索率 ε
1.000
速度:

紫色 = 蛇头  |  红点 = 食物  |  ε 趋近 0 时 AI 完全依赖策略,不再随机

趣味机器学习

用最少的公式、最直观的方式带你玩转 AI

不背公式,不抄代码——每个算法都能在浏览器里跑起来,看着参数实时变化,你自然就懂了。 从梯度下降到 Transformer,我们只讲你真正需要理解的那部分,剩下的交给直觉。

浏览器内运行 可视化优先 零公式入门 19 个算法 Python + JS 双版本

选一条路线,开始学习

好玩路线
分类算法路线
深度学习路线
读研考试路线

按照目录全都学把,你赖不掉的 😄

公共基础(各路线共用) 高阶(需要前置知识)

算法全景图

算法发展历史

1940s – 1960s 启蒙期
1943
McCulloch-Pitts 神经元

第一个数学神经元模型,证明了神经网络理论上可以实现任意逻辑运算。

1957
感知机(Perceptron)

Rosenblatt 提出第一个可学习的线性分类器,掀起第一次神经网络热潮。

1959
机器学习一词诞生

Arthur Samuel 在跳棋程序论文中首次使用"Machine Learning"一词。

1970s – 1980s 经典算法奠基
1979
K-Means 聚类

Lloyd 提出 K-Means 算法,成为无监督学习的经典基准。

1986
反向传播算法(Backprop)

Rumelhart、Hinton、Williams 发表 BP 算法,多层神经网络终于可以有效训练。

1989
卷积神经网络 LeNet

LeCun 将 CNN 应用于手写数字识别,奠定了计算机视觉的基础架构。

1990s 统计学习崛起
1995
支持向量机(SVM)

Vapnik 提出 SVM,在小样本高维数据上表现优异,统治了 2000 年代的竞赛榜单。

1997
LSTM 长短期记忆网络

Hochreiter & Schmidhuber 解决了 RNN 的梯度消失问题,让序列建模成为可能。

2000s 数据与工程时代
2001
随机森林

Breiman 提出随机森林,集成学习开始主导结构化数据任务。

2006
深度学习复兴

Hinton 提出预训练方案,深度网络重新焕发活力,第三次 AI 热潮开始。

2013
Word2Vec 词向量

Mikolov 提出 Word2Vec,NLP 进入表示学习时代,"词有几何"成为现实。

2010s 深度学习大爆发
2012
AlexNet ImageNet 夺冠

深度 CNN 以碾压式优势赢得 ImageNet 竞赛,GPU 训练深度网络成为主流。

2014
GAN 生成对抗网络

Goodfellow 提出 GAN,生成模型从此走向繁荣,AI 作画的起点。

2014
VAE 变分自编码器

Kingma & Welling 提出 VAE,将概率图模型与深度学习优雅结合。

2015
残差网络 ResNet

He et al. 发明跳跃连接,解决了超深网络退化问题,152 层网络成为可能。

2017
Transformer "Attention Is All You Need"

Google 团队发表 Transformer,自注意力机制取代 RNN,成为现代 AI 的基石。

2020s 大模型时代
2020
扩散模型(Diffusion)

Ho et al. 提出 DDPM,扩散模型在图像生成质量上全面超越 GAN。

2022
ChatGPT 引爆 AI 普及

OpenAI 发布 ChatGPT,大语言模型走进大众视野,AI 应用进入新纪元。

2023 →
多模态 · 智能体 · 持续演进

GPT-4、Gemini、Claude 等多模态大模型涌现,AI Agent 开始自主完成复杂任务。