# 《机器学习算法分类讲解与Kaggle实战》专栏概述

> **广理论，重实践！** 本专栏不是算法推导文章！

## 概述

分类讲解机器学习算法原理，深度解析决策树、贝叶斯算法、逻辑回归、梯度下降、集成学习、k最近邻、支持向量机等，并给出Python实现源程序，同时分享以实战为导向的Kaggle进阶指南，将机器学习应用于Kaggle实际项目中。

本专栏在讲解机器学习算法原理的同时，着重强调在实际项目中的应用。分为理论讲解篇目和项目实践篇目（主要以Kaggle题目为主）。

> 内容同步到GitHub <https://github.com/Charmve/PaperWeeklyAI>

#### 文章目录

* [概述](https://charmve.gitbook.io/python/broken-reference)
* [理论篇](https://charmve.gitbook.io/python/broken-reference)
* * [机器学习算法分类讲解与程序实现](https://charmve.gitbook.io/python/broken-reference)
  * * [卷积神经网络(CNN)](https://charmve.gitbook.io/python/broken-reference)
    * [K最近邻(k-Nearest Neighbor，KNN)](https://charmve.gitbook.io/python/broken-reference)
    * [支持向量机SVM](https://charmve.gitbook.io/python/broken-reference)
    * [隐马尔可夫模型(Hidden Markov Models,HMM)](https://charmve.gitbook.io/python/broken-reference)
    * [集成学习（Gradient Boosting）](https://charmve.gitbook.io/python/broken-reference)
    * [逻辑回归（Logistic Regression）](https://charmve.gitbook.io/python/broken-reference)
    * [激活函数/损失函数/归一化/SVM/BP/随机森林](https://charmve.gitbook.io/python/broken-reference)
  * [深度学习新方法](https://charmve.gitbook.io/python/broken-reference)
  * * [NLP：注意力机制](https://charmve.gitbook.io/python/broken-reference)
    * [图神经网络GNN](https://charmve.gitbook.io/python/broken-reference)
* [实践篇](https://charmve.gitbook.io/python/broken-reference)
* * [Kaggle实战](https://charmve.gitbook.io/python/broken-reference)
  * * [Kaggle：从入门到入土](https://charmve.gitbook.io/python/broken-reference)
    * [项目实战：方法+源码](https://charmve.gitbook.io/python/broken-reference)
  * [实战经验](https://charmve.gitbook.io/python/broken-reference)
* [总结](https://charmve.gitbook.io/python/broken-reference)

## 理论篇

### 机器学习算法分类讲解与程序实现

本篇目主要分类讲解逻辑回归，支持向量机，聚类，决策树，贝叶斯等算法，每篇文章最后都会给出每个算法的常规Python实现源代码。考虑到方便读者学习、做笔记和及时回顾，每个算法类别写成一篇文章，篇目较长。但大家可以收藏，之后一个算法可单独复盘回顾。

#### 卷积神经网络(CNN)

* [机器学习算法之——走近卷积神经网络(CNN)](https://blog.csdn.net/Charmve/article/details/104872365)
* [机器学习算法之——卷积神经网络(CNN)原理讲解](https://charmve.blog.csdn.net/article/details/104872435)
* [机器学习实战 | 卷积神经网络详解(二)——自己手写一个卷积神经网络](https://charmve.blog.csdn.net/article/details/106076844)

#### K最近邻(k-Nearest Neighbor，KNN)

* [机器学习算法之——K最近邻(k-Nearest Neighbor，KNN)分类算法原理讲解](https://charmve.blog.csdn.net/article/details/103950561)
* [机器学习算法之——K最近邻(k-Nearest Neighbor，KNN)分类算法Python实现](https://charmve.blog.csdn.net/article/details/104583287)

#### 支持向量机SVM

* [机器学习算法之——支持向量机(Support Vector Machine, SVM）](https://charmve.blog.csdn.net/article/details/103950571)

#### 隐马尔可夫模型(Hidden Markov Models,HMM)

* [机器学习算法之——隐马尔可夫模型(Hidden Markov Models,HMM)原理讲解及Python实现](https://charmve.blog.csdn.net/article/details/103950591)

#### 集成学习（Gradient Boosting）

* [机器学习算法之——集成学习（Gradient Boosting）](https://charmve.blog.csdn.net/article/details/103846873)

#### 逻辑回归（Logistic Regression）

* [机器学习算法之——逻辑回归（Logistic Regression）](https://charmve.blog.csdn.net/article/details/103844249)

#### 激活函数/损失函数/归一化/SVM/BP/随机森林

* [一文弄懂神经网络中的反向传播法——Back Propagation](https://charmve.blog.csdn.net/article/details/106089196)
* [常用激活函数（激励函数）理解与总结](https://charmve.blog.csdn.net/article/details/106089183)
* [损失函数的可视化：浅论模型的参数空间与正则](https://charmve.blog.csdn.net/article/details/108138805)
* [CNN 真的需要下采样（上采样）吗?](https://charmve.blog.csdn.net/article/details/106549690)
* [深入探讨：为什么要做特征归一化/标准化？](https://charmve.blog.csdn.net/article/details/109108710)
* [卷积神经网络中十大拍案叫绝的操作](https://charmve.blog.csdn.net/article/details/105093727)
* [你还不了解机器学习中的最优化算法吗？现在我给你总结了](https://charmve.blog.csdn.net/article/details/106341911)
* [哈工大硕士生实现 11 种数据降维算法，代码已开源！](https://charmve.blog.csdn.net/article/details/108633852)
* [机器学习面试150题（2020）：不只是考SVM xgboost 特征工程](https://charmve.blog.csdn.net/article/details/109997629)
* [Facebook工程师教你什么是随机森林，就算零基础也可以看懂 | 干货](https://charmve.blog.csdn.net/article/details/107853311)

> **概念区分**： [机器学习、数据科学、人工智能、深度学习和统计学之间的区别！](https://charmve.blog.csdn.net/article/details/108744665)

&#x20;另外， **神经网络**是一个特别的算法分支，所以会单独列出，并结合深度学习领域详细编写。具体篇目如下：

* [「综述」神经网络中不同类型的卷积层](https://charmve.blog.csdn.net/article/details/106435088)
* [机器学习算法之——走近卷积神经网络(CNN)](https://blog.csdn.net/Charmve/article/details/104872365)
* [一文弄懂神经网络中的反向传播法——Back Propagation](https://charmve.blog.csdn.net/article/details/106089196)
* [机器学习实战 | 卷积神经网络详解(二)——自己手写一个卷积神经网络](https://charmve.blog.csdn.net/article/details/106076844)
* [CNN 真的需要下采样（上采样）吗?](https://charmve.blog.csdn.net/article/details/106549690)
* [卷积神经网络中十大拍案叫绝的操作](https://charmve.blog.csdn.net/article/details/105093727)
* [深入理解计算机视觉中的损失函数](https://charmve.blog.csdn.net/article/details/105094371)
* [当支持向量机遇上神经网络：这项研究揭示了SVM、GAN、Wasserstein距离之间的关系…](https://charmve.blog.csdn.net/article/details/108675717)
* [谷歌用算力爆了一篇论文，解答有关无限宽度网络的一切](https://charmve.blog.csdn.net/article/details/108354141)
* [新型网络：图神经网络GNN](https://charmve.gitbook.io/python/broken-reference)
* [CVPR 2020：华为GhostNet，超越谷歌MobileNet，已开源](https://charmve.blog.csdn.net/article/details/107650481)

### 深度学习新方法

在掌握基础的机器学习算法后，我们有必要关注在深度学习领域出现的新方法、新分支，尤其在NLP、计算机视觉领域中的新方法，有些算法可在开领域内发挥较好的效果，这也是我们项目实操的时候，可以考虑的方法，例如：Transformer、GNN等。

* [22张深度学习精炼图笔记总结](https://charmve.blog.csdn.net/article/details/107650488)

#### NLP：注意力机制

* [深度学习 | 详解Transformer （Attention Is All You Need）](https://charmve.blog.csdn.net/article/details/107650482)
* [深度学习 | Batch Normalization原理与实战](https://charmve.blog.csdn.net/article/details/107650489)
* [深度学习 | 一文解读深度学习中的Normalization模型](https://charmve.blog.csdn.net/article/details/107650487)
* [文本深度表示模型——word2vec\&doc2vec词向量模型](https://charmve.blog.csdn.net/article/details/107452200)
* [Google BERT 中文应用之《红楼梦》中对话人物提取](https://charmve.blog.csdn.net/article/details/107452417)
* [基于深度模型的Out of Distribution(OOD)检测相关方法介绍](https://charmve.blog.csdn.net/article/details/107704444)
* [7 Papers & Radios | ACL 2020获奖论文；贝叶斯深度学习综述](https://charmve.blog.csdn.net/article/details/107650483)

#### 图神经网络GNN

* [图同构下等变、计算高效，韦灵思团队提出「自然图网络」消息传递方法](https://charmve.blog.csdn.net/article/details/107948280)
* [「过拟合」也能废物利用了：有人用它高清重建3D物体表面，参数减少99%](https://blog.csdn.net/Charmve/article/details/109127533)
* [告别RNN，迎来TCN！股市预测任务是时候拥抱新技术了](https://charmve.blog.csdn.net/article/details/108656614)

## 实践篇

### Kaggle实战

#### Kaggle：从入门到入土

* [独家秘笈：Kaggle竞赛讲义免费领！](https://charmve.blog.csdn.net/article/details/107888721)
* [本科生晋升GM记录： Kaggle比赛进阶技巧分享](https://charmve.blog.csdn.net/article/details/106356635)
* [Kaggle入门，看这一篇就够了](https://charmve.blog.csdn.net/article/details/103804278)
* [我要这金牌有何用：Kaggle 竞赛成绩真能「保送」谷歌、FB 吗？](https://charmve.blog.csdn.net/article/details/108924569)
* [GitHub标星23k+，从零开始的深度学习实用教程 | PyTorch官方推荐](https://charmve.blog.csdn.net/article/details/104588895)

#### 项目实战：方法+源码

* [机器学习实战 | 卷积神经网络详解(二)——自己手写一个卷积神经网络](https://charmve.blog.csdn.net/article/details/106076844)
* [机器学习实战 | 逻辑回归应用之“Kaggle泰坦尼克之灾”](https://charmve.blog.csdn.net/article/details/106442737)
* [Keras实现CNN:手写数字识别准确率99.6%](https://charmve.blog.csdn.net/article/details/108531735)
* [GitHub上Star量最高的5个机器学习项目](https://charmve.blog.csdn.net/article/details/108906631)
* [CV实战 | 使用OpenCV进行图像全景拼接](https://charmve.blog.csdn.net/article/details/107897468)
* [CV实战 | 使用OpenCV实现道路车辆计数](https://charmve.blog.csdn.net/article/details/107897373)
* [聚焦快速机器学习训练算法，UC伯克利尤洋189页博士论文公布](https://charmve.blog.csdn.net/article/details/108675718)
* [如何斩获KDD Cup 2020两冠一季？美团广告团队公开解决方案](https://charmve.blog.csdn.net/article/details/108484850)
* ​[Kaggle X光肺炎检测比赛第二名方案解析 | CVPR 2020 Workshop](https://charmve.blog.csdn.net/article/details/106719307)
* [中国力量占领KDD：包揽“大数据领域世界杯”全部冠亚军，北航拿下最佳学生论文奖…](https://charmve.blog.csdn.net/article/details/108414205)

### 实战经验

* [为什么你的模型效果这么差，深度学习调参有哪些技巧？](https://charmve.blog.csdn.net/article/details/107650479)
* [机器学习论文复现，这五大问题你需要注意](https://charmve.blog.csdn.net/article/details/110459297)
* [机器学习需要的大量数据集从哪里找?](https://charmve.blog.csdn.net/article/details/106096144)

## 总结

> 持续更新中，如在实践中遇到什么问题，欢迎交流。公众号内回复“**加群**”即可进入迈微学习交流群。 ✉️ <yidazhang1@gmail.com>

[更多项目实战正在来袭](https://github.com/Charmve) -->

![在这里插入图片描述](https://img-blog.csdnimg.cn/20201212141153447.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYXJtdmU=,size_16,color_FFFFFF,t_70)

关注公众号`迈微AI研习社`，跟更多同行者一起学习。最后别忘了，**订阅专栏**哦！
