论坛元老
- 威望
- 0
- 贡献
- 23
- 热心值
- 2
- 金币
- 5539
- 注册时间
- 2020-8-31
|
〖课程介绍〗:. G6 }$ ^5 [% {9 d" a2 _# \
适用人群5 N1 T/ I2 d2 D6 w; x
python程序员,机器学习工程师,人工智能工程师,机器学习爱好者
0 B& M3 i, t& w1 T7 x6 L
课程概述9 @1 }8 \( o8 n4 I/ `
本课程以最新的Python 3讲解,同时适用于Windows、Mac OS X和Linux系统。5 } E, U4 j9 z6 T! C+ L
Scikit-learn(sklearn)的定位是通用机器学习库,而TensorFlow(tf)的定位主要是深度学习库。一个显而易见的不同:tf并未提供sklearn那种强大的特征工程,如维度压缩、特征选择等。
〖课程目录〗:/ B1 m& ~; h( k% v9 F) t
章节1:对机器学习的正确认识
课时1人工智能、机器学习和深度学习的关系39:19
课时2机器学习需要哪些工具15:03
课时3源代码和其他资源下载
课时4Jupyter Notebook简介与安装06:23
课时5使用Jupyter Notebook07:58
课时6远程访问Jupyter Notebook04:482 J! x* b8 b+ G6 \
章节2:项目实战:预测人们的幸福指数' ]+ {8 O/ ^+ L1 U( x4 a
课时7项目简介02:01; S3 n0 P, j: w) g" s
课时8训练线性模型,并预测幸福指数46:140 Y3 s. W4 i+ l/ f( }) V
课时9机器学习的主要挑战06:24
章节3:项目实战:预测房价
课时10准备训练数据09:33
课时11查看和可视化数据集06:10
课时12准备训练集和测试集09:18- [. ~$ a* e0 r/ I
课时13用更完美的方式产生训练集和测试集24:28
课时14用sklearn API拆分训练集和测试集08:12' b9 u" w, Z& J5 Y1 S2 @( N
课时15分层抽样12:33
课时16通过可视化地理数据寻找模式11:262 ` c: l4 `0 ^6 Y: v: {4 [
课时17用两种方法检测属性之间的相关度19:56: S5 B7 o( a% g! D$ @
课时18为房屋数据集添加新属性,并计算与房屋均价的相关度08:02& t J. V" ?6 b2 C! Y1 J
课时19清理数据:用转换器填补缺失值11:47- w5 k9 f6 z5 Z1 n" o/ r6 x
课时20将文本类型属性转换为数值19:301 R; K/ Z. ~ q" c L1 l* J* P3 d
课时21自定义转换器16:146 v5 e, K& _8 W v/ W* O
课时22数据转换管道(pipeline)17:42
课时23选择、训练模型以及预测房价17:29
课时24评估模型的性能17:35
课时25用交叉验证评估和选择模型11:37
章节4:项目实战:识别手写数字. F- L7 M6 ^' |6 v$ w. \7 k
课时26项目概述04:34
课时27使用sklearn内置的图像数据10:21
课时28使用fetch_mldata函数获取MNIST图像数据集09:31! m; m8 K+ V# E e( S% { Y
课时29直接读取mat格式的MNIST图像数据集06:04% g: A, J2 ?1 Y8 y3 J/ u0 \
课时30将多张图像文件合成一个图像22:10, v& Z4 J# C* x5 H9 `- Y
课时31对数字图像进行二元分类08:28
课时32使用K-fold交叉验证法评估分类器模型的性能16:10
课时33使用混淆矩阵评估分类器模型的性能18:412 ~- L* _9 l+ ^ m6 Y/ p: Z! x, j
课时34用精度、召回率和F1分数评估分类模型18:13( ?4 B; ]' u* ]9 S' @
课时35调整阈值得到不同的精度和召回率37:21: a: {( r6 n& D9 d; T1 x
课时36ROC曲线与模型评估13:571 |' y6 Q& N' p0 e& ~6 t: @% F" ?
课时37比较随机森林分类器和梯度下降分类器的ROC曲线17:09
课时38多类别分类器27:44- |, I. v0 T' u7 p& c7 q
课时39通过对特征值进行转换提高分类效果07:55, U- u+ _4 e! b$ B9 r0 t6 n
课时40通过分析错误类型改进分类模型15:369 W. g$ C) S+ c7 X" G
课时41多标签分类17:39
课时42去除图像噪声10:58
章节5:k-邻近算法" F* i# v( M- O5 M( ~. ], d8 P5 ~% P
课时43实现原理15:10% M- g- L" C$ n3 T& K0 T: \. @- r
课时44用k-邻近算法进行分类24:586 @/ T5 U1 t, }
课时45用k-邻近算法进行预测14:21$ P* X# u5 h X# \) c8 h2 V
课时46绘制拟合曲线08:39
章节6:项目实战:用k-邻近算法预测糖尿病
课时47准备训练数据和测试数据09:22' {( x! t+ V; y3 H9 Z
课时48比较和选择分类模型11:46' m# e" v+ W- M3 _8 T; x
课时49训练模型与预测糖尿病08:41+ x% `! o4 e. }4 {; S, g1 t2 d
课时50绘制学习曲线16:05% g* s; V( Y, T E* z
课时51选择相关特征与数据可视化14:10
章节7:线性回归算法# N" Y: u( ]( h- l6 i6 g3 Z" g
课时52线性回归都讲了什么05:30
课时53线性回归模型概述10:56; H; i7 L+ y( k9 c K8 ^, `
课时54使用标准方程进行线性回归拟合23:36$ o& R; _4 E# y) _) e
课时55梯度下降算法原理20:01
课时56批量梯度下降20:49+ r' X6 `) @6 S5 t$ L1 s( W/ _/ Y' Y
课时57比较不同学习率的迭代效果19:38
课时58随机梯度下降21:06
课时59下批量梯度下降03:41
课时60比较4种线性回归算法07:49( g0 Y3 n4 z) Q& B
课时61用线性模型拟合非线性数据19:58& s4 a% O, n& t) Q; l' T9 v
章节8:支持向量机(SVM)
课时62线性SVM分类15:55) u% i8 F8 ^9 f4 d
课时63添加特征使数据集线性可分离15:31
课时64使用多项式特征的线性SVM分类器20:026 \ Y3 ]3 g+ c& B5 H( {! N
课时65基于多项式核的SVM分类器10:255 O& d+ S/ c! |* m5 k# L4 ?
课时66高斯RBF的相似特征20:58
课时67基于高斯RBF核函数的SVM分类器09:54
|
|