菜菜的机器学习sklearn课堂资源介绍:

菜菜的机器学习sklearn课堂
十一周sklearn课程,让菜菜带你认识sklearn,带你深入浅出地探索算法的神秘世界。我会为你解读sklearn中的主流算法,带你处理数据,调整参数,完善算法,调用结果。我会为你解析参数,助你理解算法原理,也会带你遍历案例,带你实战给你刷经验。十一周之后,人人都能够三行实现算法,实现少加班,多钻研,在数据行业乘风破浪的目标,为成为优秀的数据挖掘工程师打下坚实的基础
资源目录:
九天菜菜的机器学习sklearn课堂 ├──第八章 支持向量机与Kaggle案例:澳大利亚天气数据集 | ├──0 目录:本周将学习什么内容_ 30.50M | ├──1.1 简单复习支持向量机的基本原理_ 23.66M | ├──1.2 参数C的深入理解:多个支持向量存在的理由_ 38.72M | ├──1.3 二分类SVC中的样本不均衡问题_ 28.44M | ├──1.3 如何使用参数class_weight (1)_ 17.56M | ├──1.3 如何使用参数class_weight (2)_ 107.42M | ├──2 SVC的模型评估指标_ 40.84M | ├──2.1 混淆矩阵与准确率_ 67.74M | ├──2.1 样本不平衡的艺术(1):精确度Precision_ 26.67M | ├──2.1 样本不平衡的艺术(2):召回率Recall与F1 measure_ 28.61M | ├──2.1.3 对多数类样本的关怀:特异度Specificity和假正率_ 51.30M | ├──2.1.4 sklearn中的混淆矩阵_ 5.53M | ├──2.2 ROC曲线:Recall与假正率FPR的平衡_ 24.48M | ├──2.2.1 概率与阈值_ 57.51M | ├──2.2.2 SVM做概率预测_ 29.20M | ├──2.2.3 绘制ROC曲线 (1)_ 47.48M | ├──2.2.3 绘制ROC曲线 (2)_ 23.02M | ├──2.2.3 绘制ROC曲线 (3)_ 17.33M | ├──2.2.4 sklearn中的ROC曲线和AUC面积_ 119.96M | ├──2.2.5 利用ROC曲线求解最佳阈值_ 23.28M | ├──3 选学说明:使用SVC时的其他考虑_ 14.64M | ├──4 案例:预测明天是否会下雨 – 案例背景_ 13.19M | ├──4.1 案例:导库导数据,探索特征_ 155.81M | ├──4.2 案例:分集,优先处理标签_ 37.20M | ├──4.3.1 案例:描述性统计,处理异常值_ 47.61M | ├──4.3.2 案例:现实数据上的数据预处理 – 处理时间_ 130.04M | ├──4.3.3 案例:现实数据上的数据预处理 – 处理地点 (1)_ 12.16M | ├──4.3.3 案例:现实数据上的数据预处理 – 处理地点 (2)_ 45.45M | ├──4.3.3 案例:现实数据上的数据预处理 – 处理地点 (3)_ 130.94M | ├──4.3.3 案例:现实数据上的数据预处理 – 处理地点 (4)_ 43.93M | ├──4.3.4 案例:现实数据上的数据预处理 – 填补分类型变量的缺失值_ 55.10M | ├──4.3.5 案例:现实数据上的数据预处理 – 编码分类型变量_ 18.90M | ├──4.3.6 & 4.3.7 案例:现实数据集上的数据预处理:连续型变量_ 32.24M | ├──4.4 案例:建模与模型评估 (1)_ 19.40M | ├──4.4 案例:建模与模型评估 (2)_ 40.73M | ├──4.5.1 案例:模型调参:追求最高的recall_ 21.44M | ├──4.5.2 案例:模型调参:追求最高的精确度 (1)_ 49.60M | ├──4.5.2 案例:模型调参:追求最高的精确度 (2)_ 22.42M | ├──4.5.3 案例:模型调参:追求精确度与recall的平衡_ 63.19M | └──4.6 SVM总结与结语_ 19.88M ├──第二章 随机森林与医疗数据集调参 | ├──任务20:1 集成算法概述_ 49.97M | ├──任务21:2.1 随机森林分类器 参数n_estimators与建立一片森林_ 159.06M | ├──任务22:2.2 参数boostrap & oob_score + 重要属性和接口_ 136.08M | ├──任务23:2.3 [选学] 袋装法的另一个必要条件_ 20.73M | ├──任务24:3.1 随机森林回归器_ 40.10M | ├──任务25:3.2 案例:用随机森林填补缺失值 (1)_ 103.43M | ├──任务26:3.3 案例:用随机森林填补缺失值 (2)_ 60.94M | ├──任务27:3.4 案例:用随机森林填补缺失值 (3)_ 104.43M | ├──任务28:3.5 案例:用随机森林填补缺失值 (4)_ 27.86M | ├──任务29:4. 机器学习中调参的基本思想_ 62.53M | ├──任务30:5. 案例:随机森林在乳腺癌数据上的调参 (1)_ 61.26M | └──任务31:5. 案例:随机森林在乳腺癌数据上的调参 (2)_ 98.44M ├──第九章 回归大家族:线性,岭回归,Lasso,多项式 | ├──0 本周要学习什么__ 9.09M | ├──1 概述,sklearn中的线性回归大家族_ 25.21M | ├──2.1 多元线性回归的基本原理和损失函数_ 36.21M | ├──2.2 用最小二乘法求解多元线性回归的过程_ 156.58M | ├──2.3 多元线性回归的参数,属性及建模代码_ 85.63M | ├──3.1 回归类模型的评估指标:是否预测准确?_ 53.13M | ├──3.2 回归类模型的评估指标:是否拟合了足够的信息?_ 100.52M | ├──4.1 多重共线性:含义,数学,以及解决方案_ 128.33M | ├──4.2.1 岭回归处理多重共线性_ 44.19M | ├──4.2.2 sklearn中的岭回归:linear_model.Ridge_ 430.60M | ├──4.2.3 为岭回归选择最佳正则化参数_ 127.69M | ├──4.3.1 Lasso处理多重共线性_ 144.22M | ├──4.3.2 Lasso的核心作用:特征选择_ 84.64M | ├──4.3.3 Lasso选择最佳正则化参数_ 143.71M | ├──5.1.1 & 5.1.2 线性数据与非线性数据_ 31.38M | ├──5.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现_ 49.75M | ├──5.1.3 线性vs非线性模型 (2):拟合,效果与特点_ 70.52M | ├──5.2 离散化:帮助线性回归解决非线性问题_ 155.15M | ├──5.3.1 多项式对数据做了什么?_ 119.64M | ├──5.3.2 多项式回归提升模型表现_ 50.53M | ├──5.3.3 多项式回归的可解释性_ 82.59M | └──5.3.4 多项式回归:线性还是非线性模型? + 本周结语_ 112.51M ├──第六章 聚类算法与量化案例 | ├──0 概述_ 4.70M | ├──1.1 无监督学习概述,聚类vs分类_ 30.49M | ├──1.2 sklearn当中的聚类算法_ 14.44M | ├──2.1 Kmeans是如何工作的?_ 42.44M | ├──2.2 & 2.3 簇内平方和,时间复杂度_ 196.36M | ├──3.1.1 KMeans – 重要参数n_clusters_ 90.16M | ├──3.1.2 聚类算法的模型评估指标 (1)_ 150.08M | ├──3.1.2 聚类算法的模型评估指标 (2) – 轮廓系数_ 21.07M | ├──3.1.2 聚类算法的模型评估指标 (3) – CHI_ 33.34M | ├──3.1.3 案例:轮廓系数找最佳n_clusters (1)_ 38.69M | ├──3.1.3 案例:轮廓系数找最佳n_clusters (2)_ 45.86M | ├──3.1.3 案例:轮廓系数找最佳n_clusters (3)_ 105.60M | ├──3.2 重要参数init & random_state & n_init:初始质心怎么决定?_ 32.93M | ├──3.3 重要参数max_iter & tol:如何让聚类停下来?_ 50.11M | ├──3.5 重要属性与接口 & 函数k_means_ 29.44M | ├──4 案例:Kmeans做矢量量化 (1):案例背景_ 47.92M | ├──4 案例:Kmeans做矢量量化 (2)_ 61.47M | ├──4 案例:Kmeans做矢量量化 (3)_ 25.49M | └──4 案例:Kmeans做矢量量化 (4)_ 61.30M ├──第七章 支持向量机与医疗数据集调参 | ├──0 本周要学习什么_ 21.88M | ├──1.1 支持向量机概述:最强大的机器学习算法_ 30.13M | ├──1.2 支持向量机是如何工作的 & sklearn中的SVM_ 50.49M | ├──2.1.1 线性SVC的损失函数 (1)_ 55.80M | ├──2.1.1 线性SVC的损失函数 (2)_ 29.54M | ├──2.1.2 函数间隔与几何间隔_ 18.32M | ├──2.1.3.1 损失函数的拉格朗日乘数形态_ 54.10M | ├──2.1.3.2 拉格朗日对偶函数 (1)_ 47.11M | ├──2.1.3.2 拉格朗日对偶函数 (2)_ 96.43M | ├──2.1.3.3 求解拉格朗日对偶函数极其后续过程_ 44.44M | ├──2.1.4 SVM求解可视化 (1):理解等高线函数contour_ 138.47M | ├──2.1.4 SVM求解可视化 (2):理解网格制作函数meshgrid与vstack_ 92.07M | ├──2.1.4 SVM求解可视化 (3):建模,绘制图像并包装函数_ 47.70M | ├──2.1.4 SVM求解可视化 (4):探索建立好的模型_ 8.57M | ├──2.1.4 SVM求解可视化(5):非线性数据集上的推广与3D可视化_ 26.81M | ├──2.1.4 SVM求解可视化(6):Jupyter Notebook中的3D交互功能_ 10.59M | ├──2.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel_ 126.16M | ├──2.2.3 案例:如何选取最佳核函数 (1)_ 85.63M | ├──2.2.3 案例:如何选取最佳核函数 (2)_ 64.07M | ├──2.2.4 案例:在乳腺癌数据集上探索核函数的性质_ 113.87M | ├──2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)_ 23.79M | ├──2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)_ 144.09M | ├──2.3.1 SVM在软间隔数据上的推广_ 149.21M | └──2.3.2 重要参数C & 总结_ 98.36M ├──第三章 数据预处理与特征工程 | ├──任务33:概述 + 12期课纲_ 57.37M | ├──任务34:数据预处理1:无量纲化:数据归一化_ 65.49M | ├──任务35:数据预处理2:无量纲化:数据标准化_ 34.37M | ├──任务36:数据预处理3:缺失值 (1)_ 30.01M | ├──任务37:数据预处理4:缺失值 (2)_ 59.75M | ├──任务38:数据预处理5:处理分类型数据:编码与哑变量_ 135.35M | ├──任务39:数据预处理6:处理连续型数据:二值化和分箱_ 63.92M | ├──任务40:特征选择1:过滤法:方差过滤 (1)_ 56.58M | ├──任务41:特征选择2:过滤法:方差过滤 (2)_ 122.07M | ├──任务42:特征选择3:过滤法:卡方过滤_ 77.88M | ├──任务43:特征选择4:过滤法:F检验和互信息法 (1)_ 42.03M | ├──任务44:特征选择5:过滤法:互信息法(2) + 总结_ 19.55M | ├──任务45:特征选择6:嵌入法 (1)_ 28.56M | ├──任务46:特征选择7:嵌入法 (2)_ 83.62M | └──任务47:特征选择8:包装法 + 总结_ 74.09M ├──第十二章 神经网络 | ├──012 神经网络-课件 | | └──12-神经网络.pdf 2.12M | ├──神经网络1_ 54.06M | ├──神经网络2_ 117.43M | └──神经网络3_ 106.34M ├──第十一章 XGBoost | ├──0 本周要学习什么_ 18.31M | ├──1 XGBoost前瞻:安装xgboost,xgboost库与skleanAPI_ 147.19M | ├──2.1 梯度提升树(1):集成算法回顾,重要参数n_estimators_ 43.37M | ├──2.1 梯度提升树(2):参数n_estimators下的建模_ 72.24M | ├──2.1 梯度提升树(3):参数n_estimators的学习曲线_ 160.38M | ├──2.1 梯度提升树(4):基于方差-偏差困境改进的学习曲线_ 154.21M | ├──2.2 梯度提升树(5):控制有放回随机抽样,参数subsample_ 75.19M | ├──2.3 梯度提升树(6):迭代决策树:重要参数eta_ 241.11M | ├──2.3 梯度提升树(7):迭代决策树:重要参数eta_ 41.37M | ├──3.1 XGBoost的智慧 (1):选择弱评估器:重要参数booster_ 16.55M | ├──3.2 XGBoost的智慧 (2):XGBoost的目标函数,使用xgboost库建模_ 330.82M | ├──3.3 XGBoost的智慧 (3):求解XGBoost的目标函数 – 推导过程_ 46.76M | ├──3.3 XGBoost的智慧 (4):XGboost的目标函数 – 泰勒展开相关问题_ 68.22M | ├──3.4 XGBoost的智慧 (5):参数化决策树,正则化参数lambda与alpha_ 60.23M | ├──3.5 XGBoost的智慧 (6):建立目标函数与树结构的直接联系_ 27.72M | ├──3.5 XGBoost的智慧 (7):最优树结构,求解w和T_ 251.89M | ├──3.6 XGBoost的智慧 (8):贪婪算法求解最优树_ 118.95M | ├──3.7 XGBoost的智慧 (9):让树停止生长:参数gamma与工具xgb.cv_ 402.03M | ├──4.1 XGBoost应用 (1):减轻过拟合:XGBoost中的剪枝参数_ 41.38M | ├──4.1 XGBoost应用 (2):使用xgb.cv进行剪枝参数的调参_ 419.74M | ├──4.2 XGBoost应用 (3):使用pickle保存和调用训练好的XGB模型_ 32.85M | ├──4.2 XGBoost应用 (4):使用joblib保存和调用训练好的XGB模型_ 27.94M | ├──4.3 XGBoost应用 (5):XGB分类中的样本不平衡问题 – sklearnAPI_ 36.78M | ├──4.3 XGBoost应用 (6):XGB分类中的样本不平衡问题 – xgboost库_ 184.12M | └──4.4 XGBoost应用 (7):XGB应用中的其他问题_ 29.11M ├──第十章 朴素贝叶斯 | ├──0 本周要讲解的内容_ 19.70M | ├──1.1 为什么需要朴素贝叶斯_ 46.83M | ├──1.2 概率论基础 – 贝叶斯理论等式_ 17.11M | ├──1.2.1 瓢虫冬眠:理解条件概率 (1)_ 22.71M | ├──1.2.1 瓢虫冬眠:理解条件概率 (2)_ 29.33M | ├──1.2.1 瓢虫冬眠:理解条件概率 (3)_ 69.82M | ├──1.2.2 贝叶斯的性质与最大后验估计_ 21.31M | ├──1.2.3 汉堡称重:连续型变量的概率估计 (1)_ 13.69M | ├──1.2.3 汉堡称重:连续型变量的概率估计 (2)_ 30.45M | ├──1.3 sklearn中的朴素贝叶斯_ 31.12M | ├──2.1.1 认识高斯朴素贝叶斯_ 232.67M | ├──2.1.2 高斯朴素贝叶斯擅长的数据集_ 47.95M | ├──2.1.3 探索贝叶斯 – 拟合中的特性与运行速度 (1)_ 30.20M | ├──2.1.3 探索贝叶斯 – 拟合中的特性与运行速度 (2) – 代码讲解 (1)_ 80.60M | ├──2.1.3 探索贝叶斯 – 拟合中的特性与运行速度 (3) – 代码讲解 (2)_ 14.51M | ├──2.1.3 探索贝叶斯 – 拟合中的特性与运行速度 (4) – 分析与结论_ 30.64M | ├──2.2.1 概率类模型的评估指标 (1) – 布里尔分数_ 41.17M | ├──2.2.1 概率类模型的评估指标 (2) – 布里尔分数可视化_ 17.32M | ├──2.2.2 概率类模型的评估指标 (3) – 对数损失Logloss_ 45.40M | ├──2.2.3 概率类模型的评估指标 (4) – 可靠性曲线 (1)_ 96.50M | ├──2.2.3 概率类模型的评估指标 (5) – 可靠性曲线 (2)_ 321.80M | ├──2.2.4 概率类模型的评估指标 (6) – 概率分布直方图_ 33.18M | ├──2.2.5 概率类模型的评估指标 (7) – 概率校准 (1)_ 219.17M | ├──2.2.5 概率类模型的评估指标 (8) – 概率校准 (2)_ 37.94M | ├──2.3.1 多项式朴素贝叶斯 (1) – 认识多项式朴素贝叶斯_ 17.61M | ├──2.3.1 多项式朴素贝叶斯 (2) – 数学原理_ 69.73M | ├──2.3.1 多项式朴素贝叶斯 (3) – sklearn中的类与参数_ 15.20M | ├──2.3.1 多项式朴素贝叶斯 (4) – 来构造一个分类器吧_ 34.30M | ├──2.3.2 伯努利朴素贝叶斯 (1) – 认识伯努利朴素贝叶斯_ 9.62M | ├──2.3.2 伯努利朴素贝叶斯 (2) – sklearn中的类与参数_ 9.48M | ├──2.3.2 伯努利朴素贝叶斯 (3) – 构造一个分类器_ 9.68M | ├──2.3.3 探索贝叶斯 – 朴素贝叶斯的样本不均衡问题_ 163.61M | ├──2.3.4 补集朴素贝叶斯 – 补集朴素贝叶斯的原理 (1)_ 52.27M | ├──2.3.4 补集朴素贝叶斯 – 补集朴素贝叶斯的原理 (2)_ 20.01M | ├──2.3.4 补集朴素贝叶斯 – 处理样本不均衡问题_ 44.49M | ├──3.1.1 案例:贝叶斯做文本分类 (1) – 单词计数向量技术_ 91.28M | ├──3.1.1 案例:贝叶斯做文本分类 (2) – 单词计数向量的问题_ 56.30M | ├──3.1.2 案例:贝叶斯做文本分类 (3) – TF-IDF技术_ 81.14M | ├──3.2 案例:贝叶斯做文本分类 (4) – 探索和提取文本数据_ 67.46M | ├──3.3 案例:贝叶斯做文本分类 (5) – 使用TF-IDF编码文本数据_ 9.85M | └──3.4 案例:贝叶斯做文本分类 (6) – 算法应用与概率校准_ 43.15M ├──第四章 降维算法PCA与手写数字识别 | ├──1 降维算法概述_ 155.09M | ├──2.1 降维究竟怎样实现?_ 104.45M | ├──2.2 参数 + 案例:高维数据的可视化 (1)_ 393.43M | ├──2.2 参数 + 案例:高维数据的可视化 (2)_ 15.44M | ├──2.3 PCA中的SVD,重要参数svd_solver_ 125.36M | ├──2.3 参数 + 案例:人脸识别中的components_应用__ 491.62M | ├──2.4 重要接口 + 案例1:用人脸识别看PCA降维后的信息保存量_ 189.68M | ├──2.4 重要接口 + 案例2:用PCA实现手写数字的噪音过滤_ 56.89M | ├──2.5 原理,流程,重要属性接口和参数的总结_ 18.73M | ├──3.1 案例:PCA实现784个特征的手写数字的降维 (1_ 89.31M | └──3.2 案例:PCA实现784个特征的手写数字的降维 (2)_ 31.81M ├──第五章 逻辑回归和信用评分卡 | ├──0 前言_ 41.48M | ├──1.1 逻辑回归概述:名为“回归”的分类器_ 52.36M | ├──1.2 为什么需要逻辑回归_ 39.38M | ├──1.3 sklearn当中的逻辑回归_ 13.82M | ├──2.1.1 二元逻辑回归的损失函数_ 36.50M | ├──2.2.1 正则化:重要参数penalty & C_ 95.28M | ├──2.2.2 逻辑回归的特征工程 (1)_ 97.13M | ├──2.2.2 逻辑回归的特征工程 (2)_ 17.75M | ├──2.2.2 逻辑回归的特征工程 (3)_ 188.35M | ├──2.2.2 逻辑回归的特征工程 (4)_ 15.02M | ├──2.3.1 重要参数max_iter – 梯度下降求解逻辑回归的过程_ 24.03M | ├──2.3.2 梯度的概念与解惑_ 38.46M | ├──2.3.3 步长的概念与解惑_ 66.26M | ├──2.4 二元回归与多元回归:重要参数solver & multi_class_ 41.50M | ├──2.5 样本不均衡与参数class_weight_ 63.34M | ├──3.1 案例:评分卡与完整的模型开发流程_ 14.83M | ├──3.2.1~2 案例:评分卡 – 数据预处理(1) – 重复值与缺失值_ 310.75M | ├──3.2.3 案例:评分卡 – 数据预处理 (2) – 异常值_ 172.46M | ├──3.2.4 案例:评分卡 – 数据预处理 (3) – 标准化_ 10.61M | ├──3.2.5 案例:评分卡 – 数据预处理 (4) – 样本不均衡问题_ 24.04M | ├──3.2.6 案例:评分卡 – 数据预处理 (5) – 保存训练集和测试集数据_ 17.90M | ├──3.3 案例:评分卡 – 分箱 (1) – 概述与概念_ 38.76M | ├──3.3.1 案例:评分卡 – 分箱 (2) – 等频分箱 (1)_ 25.32M | ├──3.3.1 案例:评分卡 – 分箱 (3) – 等频分箱 (2)_ 30.51M | ├──3.3.2 案例:评分卡 – 分箱 (4) – 选学说明_ 13.09M | ├──3.3.3 案例:评分卡 – 分箱 (5) – 计算WOE与IV_ 74.18M | ├──3.3.4 案例:评分卡 – 分箱 (6) – 卡方检验、箱体合并、IV值等_ 79.36M | ├──3.3.5 案例:评分卡 – 分箱 (7) – 包装分箱函数_ 18.81M | ├──3.3.6 案例:评分卡 – 分箱 (8) – 包装判断分箱个数的函数_ 23.47M | ├──3.3.7 案例:评分卡 – 分箱 (9) – 对所有特征进行分箱_ 28.62M | ├──3.4 案例:评分卡 – 映射数据 (1)_ 78.40M | ├──3.4 案例:评分卡 – 映射数据 (2)_ 29.22M | ├──3.5 案例:评分卡 – 建模与模型验证_ 37.19M | └──3.6 案例:评分卡 – 评分卡的输出和建立_ 56.98M ├──第一章 决策树与泰坦尼克号生存预测 | ├──任务10:6. 分类树:重要属性和接口_ 62.06M | ├──任务11:7. 回归树:参数,属性和接口_ 28.28M | ├──任务12:7. 回归树:交叉验证 (1)_ 25.15M | ├──任务13:7. 回归树:交叉验证(2)_ 10.55M | ├──任务14:8. 回归树案例:用回归树拟合正弦曲线_ 112.40M | ├──任务15:9. 案例:泰坦尼克号生存者预测 (1)_ 130.33M | ├──任务16:9. 案例:泰坦尼克号生存者预测 (2)_ 32.78M | ├──任务17:9. 案例:泰坦尼克号生存者预测 (3)_ 51.82M | ├──任务18:9.案例:泰坦尼克号生存者预测 (4)_ 12.47M | ├──任务4:1. 引言,sklearn入门_ 29.39M | ├──任务5:2. 决策树:概述_ 32.92M | ├──任务6:3. 分类树:参数Criterion_ 30.12M | ├──任务7: 4. 分类树:实现一棵树,随机性参数_ 112.61M | ├──任务8:5. 分类树:剪枝参数调优(1)_ 56.85M | └──任务9:5. 分类树:剪枝参数调优(2)_ 27.81M
此隐藏内容仅限VIP查看升级VIP
侵权联系与免责声明 1、本站资源所有言论和图片纯属用户个人意见,与本站立场无关 2、本站所有资源收集于互联网,由用户分享,该帖子作者与BBM资源站不享有任何版权,如有侵权请联系本站删除 3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责 4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意 如有侵权联系邮箱:1415374178@qq.com
评论0