实时演示:AI 学会玩贪吃蛇
DQN 从完全不懂规则开始,在浏览器里边玩边学——前几十局乱撞,之后越来越聪明。这就是深度强化学习。
紫色 = 蛇头 | 红点 = 食物 | ε 趋近 0 时 AI 完全依赖策略,不再随机
趣味机器学习
用最少的公式、最直观的方式带你玩转 AI
不背公式,不抄代码——每个算法都能在浏览器里跑起来,看着参数实时变化,你自然就懂了。 从梯度下降到 Transformer,我们只讲你真正需要理解的那部分,剩下的交给直觉。
选一条路线,开始学习
按照目录全都学把,你赖不掉的 😄
算法全景图
算法发展历史
第一个数学神经元模型,证明了神经网络理论上可以实现任意逻辑运算。
Rosenblatt 提出第一个可学习的线性分类器,掀起第一次神经网络热潮。
Arthur Samuel 在跳棋程序论文中首次使用"Machine Learning"一词。
Lloyd 提出 K-Means 算法,成为无监督学习的经典基准。
Rumelhart、Hinton、Williams 发表 BP 算法,多层神经网络终于可以有效训练。
LeCun 将 CNN 应用于手写数字识别,奠定了计算机视觉的基础架构。
Vapnik 提出 SVM,在小样本高维数据上表现优异,统治了 2000 年代的竞赛榜单。
Hochreiter & Schmidhuber 解决了 RNN 的梯度消失问题,让序列建模成为可能。
Breiman 提出随机森林,集成学习开始主导结构化数据任务。
Hinton 提出预训练方案,深度网络重新焕发活力,第三次 AI 热潮开始。
Mikolov 提出 Word2Vec,NLP 进入表示学习时代,"词有几何"成为现实。
深度 CNN 以碾压式优势赢得 ImageNet 竞赛,GPU 训练深度网络成为主流。
Goodfellow 提出 GAN,生成模型从此走向繁荣,AI 作画的起点。
Kingma & Welling 提出 VAE,将概率图模型与深度学习优雅结合。
He et al. 发明跳跃连接,解决了超深网络退化问题,152 层网络成为可能。
Google 团队发表 Transformer,自注意力机制取代 RNN,成为现代 AI 的基石。
Ho et al. 提出 DDPM,扩散模型在图像生成质量上全面超越 GAN。
OpenAI 发布 ChatGPT,大语言模型走进大众视野,AI 应用进入新纪元。
GPT-4、Gemini、Claude 等多模态大模型涌现,AI Agent 开始自主完成复杂任务。