点播 PYTHON机器学习

课程时长 01小时53分钟

学习期限 12 个月 退款期限 7 天

市场价格 免费 会员价格 免费

难度级别 入门 学习人次 1010 综合评分 5.0

内容实用 5.0 分

简洁易懂 5.0 分

逻辑清晰 5.0 分

  • 详情
  • 目录
在本 Modulation 中,您将学习如何实现现代监督机器学习模型。您将从了解二元分类的工作原理开始,探索如何从二元分类组件构建多分类器。您将了解什么是决策树、决策树如何学习以及如何构建决策树。用于解决分类问题的决策树有一个自然的扩展,叫做回归树,它可以处理回归问题。您还将了解其他监督学习模型,如 KNN 和 SVM。您将了解什么是模型拟合中的偏差和方差,以及所有学习模型在不同程度上固有的偏差和方差之间的权衡。您将学习减轻这种权衡的策略,并使用能很好实现这一目标的模型。

学习目标


  • 描述分类
  • 列表分类算法
  • 解释多类别 Prediction
  • 解释如何创建 Regression Tree
  • 描述分类及其应用和 Use Cases
  • 列出并解释分类算法,包括决策树和 K-NN
  • 应用 softmax 回归、One-vs-All(One-vs-Rest)和 One-vs-One 分类方法背后的理论
  • 讨论多类预测以及如何构建和学习 Decision Tree
  • 使用决策树算法开发分类模型
  • 区分分类树和回归树,并解释如何创建回归树
  • 使用 Scikit-Learn 和 Snap ML Python API 执行基本的数据预处理和回归任务建模
  • 使用 Scikit-learn 和 Snap ML 训练决策树回归模型,运行推理并评估所训练模型的质量
  • 使用 Scikit-Learn 和 Snap ML Python API 在 Python 中执行基本的数据预处理并为分类任务建模
  • 使用 Scikit-learn 和 Snap ML 训练支持向量机和决策树模型,运行推理并评估所训练模型的质量
  • 解释 K-NN 算法的工作原理以及 k 值如何影响其结果
  • 描述支持向量机 (SVM)、其应用和 Python 实现工具
  • 分析偏差和 Variance 对模型准确性的影响,并 Evaluation 减缓偏差和 Variance 的技术
  • Evaluation the outcomes of Bagging and Boosting methods and explain the bias-variance tradeoff in model complexity(评价 Bagging 和 Boosting 方法的结果并解释模型复杂性中的偏差-方差权衡
  • 使用 Scikit-learn 实现 Random Forest 和 XGBoost 回归模型,并比较它们的性能
1010
0
0