TA的每日心情 | 开心 18 小时前 |
---|
签到天数: 2915 天 连续签到: 56 天 [LV.Master]伴坛终老
- 注册时间
- 2012-9-3
- 最后登录
- 2025-8-28

管理员
2012年到2024年,感谢各位会员朋友的支持!
      

|
本套课程高清无加密,MP4格式任意播放器可打开,附带配套课程资料下载。
bobo老师特为机器学习初学者量身打造,使用新版python3语言和流行的scikit-learn框架,算法与编程两翼齐飞,由浅入深,一步步的进入机器学习的世界。学到的不只是一门课程,更是不断思考的能力。
目录:
1-1 什么是机器学习 (2014).mp4
1-2 课程涵盖的内容和理念 (1325).mp4
1-3 课程所使用的主要技术栈 (1410).mp4
2-1 机器学习世界的数据 (1827).mp4
2-2 机器学习的主要任务 (1600).mp4
2-3 监督学习,非监督学习,半监督学习和增强学习 (1738).mp4
2-4 批量学习,在线学习,参数学习和非参数学习 (1153).mp4
2-5 和机器学习相关的“哲学”思考 (1200).mp4
2-6 课程使用环境搭建 (1308).mp4
3-1 Jupyter Notebook基础 (1842).mp4
3-2 Jupyter Notebook中的魔法命令 (2051).mp4
3-3 Numpy数据基础 (1106).mp4
3-4 创建Numpy数组(和矩阵) (1916).mp4
3-5 Numpy数组(和矩阵)的基本操作 (1815).mp4
3-6 Numpy数组(和矩阵)的合并与分割 (1800).mp4
3-7 Numpy中的矩阵运算 (2311).mp4
3-8 Numpy中的聚合运算 (1319).mp4
3-9 Numpy中的arg运算 (1112).mp4
3-10 Numpy中的比较和Fancy Indexing (2236).mp4
3-11 Matplotlib数据可视化基础 (1805).mp4
3-12 数据加载和简单的数据探索 (1249).mp4
4-1 k近邻算法基础 (2242).mp4
4-2 scikit-learn中的机器学习算法封装 (2222).mp4
4-3 训练数据集,测试数据集 (2246).mp4
4-4 分类准确度 (1920).mp4
4-5 超参数 (2136).mp4
4-6 网格搜索与k近邻算法中更多超参数 (1724).mp4
4-7 数据归一化 (1527).mp4
4-8 scikit-learn中的Scaler (1924).mp4
4-9 更多有关k近邻算法的思考 (1022).mp4
5-1 简单线性回归 (1806).mp4
5-2 最小二乘法 (1127).mp4
5-3 简单线性回归的实现 (1409).mp4
5-4 向量化 (1202).mp4
5-5 衡量线性回归法的指标:MSE,RMSE和MAE (2245).mp4
5-6 最好的衡量线性回归法的指标:R Squared (1628).mp4
5-7 多元线性回归和正规方程解 (1558).mp4
5-8 实现多元线性回归 (1308).mp4
5-9 使用scikit-learn解决回归问题 (1242).mp4
5-10 线性回归的可解释性和更多思考 (1153).mp4
6-1 什么是梯度下降法 (1620).mp4
6-2 模拟实现梯度下降法 (2011).mp4
6-3 线性回归中的梯度下降法 (1056).mp4
6-4 实现线性回归中的梯度下降法 (1406).mp4
6-5 梯度下降法的向量化和数据标准化 (2214).mp4
6-6 随机梯度下降法 (1734).mp4
6-7 scikit-learn中的随机梯度下降法 (1540).mp4
6-8 如何确定梯度计算的准确性?调试梯度下降法 (1629).mp4
6-9 有关梯度下降法的更多深入讨论 (0837).mp4
7-1 什么是PCA (1745).mp4
7-2 使用梯度上升法求解PCA问题 (0910).mp4
7-3 求数据的主成分PCA (2009).mp4
7-4 求数据的前n个主成分 (1736).mp4
7-5 高维数据映射为低维数据 (1929).mp4
7-6 scikit-learn中的PCA (1857).mp4
7-7 试手MNIST数据集 (1206).mp4
7-9 使用PCA对数据进行降噪 (1000).mp4
7-10 人脸识别与特征脸 (1357).mp4
8-1 什么是多项式回归 (1138).mp4
8-2 scikit-learn中的多项式回归与Pipeline (1626).mp4
8-3 过拟合与欠拟合 (1422).mp4
8-4 为什么要有训练数据集与测试数据集 (1609).mp4
8-5 学习曲线 (1528).mp4
8-6 验证数据集与交叉验证 (2520).mp4
8-7 偏差方差平衡 (1516).mp4
8-8 模型泛化与岭回归 (1915).mp4
8-9 LASSO (1659).mp4
8-10 L1, L2和**性网络 (1425).mp4
9-1 什么是逻辑回归 (1607).mp4
9-2 逻辑回归的损失函数 (1500).mp4
9-3 逻辑回归损失函数的梯度 (1750).mp4
9-4 实现逻辑回归算法 (1429).mp4
9-5 决策边界 (2109).mp4
9-6 在逻辑回归中使用多项式特征 (1509).mp4
9-7 scikit-learn中的逻辑回归 (1722).mp4
9-8 OvR与OvO (1909).mp4
10-1 准确度的陷阱和混淆矩阵 (1506).mp4
10-2 精准率和召回率 (1151).mp4
10-3 实现混淆矩阵,精准率和召回率 (1542).mp4
10-4 F1 Score (1742).mp4
10-5 精准率和召回率的平衡 (2018).mp4
10-6 精准率-召回率曲线 (1421).mp4
10-7 ROC曲线 (1652).mp4
10-8 多分类问题中的混淆矩阵 (1330).mp4
11-1 什么是SVM (1354).mp4
11-2 SVM背后的最优化问题 (1921).mp4
11-3 Soft Margin SVM (1612).mp4
11-4 scikit-learn中的SVM (2123).mp4
11-5 SVM中使用多项式特征和核函数 (1243).mp4
11-6 到底什么是核函数 (1531).mp4
11-7 RBF核函数 (2046).mp4
11-8 RBF核函数中的gamma (1339).mp4
11-9 SVM思想解决回归问题 (1046).mp4
12-1 什么是决策树 (1201).mp4
12-2 信息熵 (1630).mp4
12-3 使用信息熵寻找最优划分 (2020).mp4
12-4 基尼系数 (1741).mp4
12-5 CART与决策树中的超参数 (1504).mp4
12-6 决策树解决回归问题 (0815).mp4
12-7 决策树的局限性 (0816).mp4
13-1 什么是集成学习 (1635).mp4
13-2 Soft Voting Classifier (1430).mp4
13-3 Bagging 和 Pasting (1652).mp4
13-4 oob (Out-of-Bag) 和关于Bagging的更多讨论 (1440).mp4
13-5 随机森林和 Extra-Trees (1314).mp4
13-6 Ada Boosting 和 Gradient Boosting (1530).mp4
13-7 Stacking (0846).mp4
14-1 学习scikit-learn文档, 大家加油! (0832).mp4
coding-169-master.zip
下载地址
|
|