- 详情
- 目录
在本 Modulation 中,您将学习如何实现现代监督机器学习模型。您将从了解二元分类的工作原理开始,探索如何从二元分类组件构建多分类器。您将了解什么是决策树、决策树如何学习以及如何构建决策树。用于解决分类问题的决策树有一个自然的扩展,叫做回归树,它可以处理回归问题。您还将了解其他监督学习模型,如 KNN 和 SVM。您将了解什么是模型拟合中的偏差和方差,以及所有学习模型在不同程度上固有的偏差和方差之间的权衡。您将学习减轻这种权衡的策略,并使用能很好实现这一目标的模型。
学习目标
- 描述分类
- 列表分类算法
- 解释多类别 Prediction
- 解释如何创建 Regression Tree
- 描述分类及其应用和 Use Cases
- 列出并解释分类算法,包括决策树和 K-NN
- 应用 softmax 回归、One-vs-All(One-vs-Rest)和 One-vs-One 分类方法背后的理论
- 讨论多类预测以及如何构建和学习 Decision Tree
- 使用决策树算法开发分类模型
- 区分分类树和回归树,并解释如何创建回归树
- 使用 Scikit-Learn 和 Snap ML Python API 执行基本的数据预处理和回归任务建模
- 使用 Scikit-learn 和 Snap ML 训练决策树回归模型,运行推理并评估所训练模型的质量
- 使用 Scikit-Learn 和 Snap ML Python API 在 Python 中执行基本的数据预处理并为分类任务建模
- 使用 Scikit-learn 和 Snap ML 训练支持向量机和决策树模型,运行推理并评估所训练模型的质量
- 解释 K-NN 算法的工作原理以及 k 值如何影响其结果
- 描述支持向量机 (SVM)、其应用和 Python 实现工具
- 分析偏差和 Variance 对模型准确性的影响,并 Evaluation 减缓偏差和 Variance 的技术
- Evaluation the outcomes of Bagging and Boosting methods and explain the bias-variance tradeoff in model complexity(评价 Bagging 和 Boosting 方法的结果并解释模型复杂性中的偏差-方差权衡
- 使用 Scikit-learn 实现 Random Forest 和 XGBoost 回归模型,并比较它们的性能