2018年5月6日星期日

专栏总目录(新)

当我们在谈论GBDT【完结】

由于 GBDT 效果一直比较好,加上 XGBoost 的易用性,GBDT 近几年在Kaggle等竞赛中受到追捧。同时,也带火了相关的一些 Ensemble Learning 算法。我想系统的梳理一下相关的知识点,但网上有关 GBDT 的文章相对琐碎,所以有了这个系列。这个系列主要从理论层面去梳理相关概念,包含的文章如下:

当我们在谈论GBDT:从 AdaBoost 到 Gradient Boosting

当我们在谈论GBDT:Gradient Boosting 用于分类与回归

当我们在谈论GBDT:其他 Ensemble Learning 算法

当我们在谈论 Deep Learning

Deep Learning 是众多机器学习算法中的一种。它起源于60年代的 Perceptron,经过80年代的 Artificial Neural Network,现阶段被称为 Deep Learning。迄今为止,是"有监督学习"领域最强大的算法类型,暂时还没有"之一"。同时,它也正在往"无监督"和"强化学习"领域扩散。网络上虽然已经有不少介绍 Deep Learning 的文章,但是大多不成系统,或作者并没有持续更新。因此便想自己写一个系列,梳理 Deep Learning 经典结构或算法,尽量保持更新。本系列包含的文章如下:

Supervised Learning:

当我们在谈论 Deep Learning:DNN 与 Backpropagation

当我们在谈论 Deep Learning:DNN 与它的参数们(壹)

当我们在谈论 Deep Learning:DNN 与它的参数们(贰)

当我们在谈论 Deep Learning:DNN 与它的参数们(叁)

当我们在谈论 Deep Learning:CNN 其常见架构(上)

当我们在谈论 Deep Learning:CNN 其常见架构(下)

当我们在谈论 Deep Learning:RNN 其常见架构

Unsupervised Learning:

当我们在谈论 Deep Learning:AutoEncoder 及其相关模型

当我们在谈论 Deep Learning:GAN 与 WGAN

Reinforcement Learning:

当我们在谈论 DRL:从Q-learning到DQN

当我们在谈论K-means【完结】

在网上找到的K-means或聚类相关的文章,内容大多较为琐碎,不太能帮助深入理解它。为了加深对K-means的理解,以便在实际中调参与修改算法,于是有了这个系列。此系列主要是从理论层面去理解K-means及相关算法,包含的文章如下:

当我们在谈论K-means:数据概述

当我们在谈论K-means:论文概述(1)

当我们在谈论K-means:论文概述(2)

当我们在谈论K-means:其他聚类算法

当我们在谈论K-means:总结



via 当我们在谈论数据挖掘 - 知乎专栏 https://ift.tt/2jB9LF8
RSS Feed

RSS6

IFTTT

没有评论:

发表评论

M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」-InfoQ每周精要No.900

「每周精要」 NO. 900 2025/11/01 头条 HEADLINE M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」 精选 SELECTED a16z 将 3000 万开发者标价 3 万亿 网友:几个初创公司 + 大模型就...