siehnzhilian 发表于 2022-8-6 09:54

百战程序员AI算法工程师就业班2022


——/百战程序员-AI算法工程师就业班2022/
├──01、人工智能基础-快速入门
|   ├──1:人工智能就业前景与薪资 .mp433.78M
|   ├──2:人工智能适合人群与必备技能 .mp421.04M
|   ├──3:人工智能时代是发展的必然 .mp416.72M
|   ├──4:人工智能在各领域的应用 .mp441.82M
|   ├──5:人工智能常见流程 .mp436.38M
|   ├──6:机器学习不同的学习方式 .mp431.23M
|   ├──7:深度学习比传统机器学习有优势 .mp433.52M
|   ├──8:有监督机器学习任务与本质 .mp423.25M
|   └──9:无监督机器学习任务与本质 .mp431.13M
├──02、人工智能基础-Python基础
|   ├──章节1:Python开发环境搭建
|   |   ├──1:下载Miniconda运行环境 .mp431.42M
|   |   ├──2:Miniconda安装和测试 .mp436.64M
|   |   ├──3:Pycharm安装和代码运行 .mp430.29M
|   |   ├──4:Jupyter安装和代码运行 .mp424.92M
|   |   ├──5:Jupyter常用快捷键 .mp420.73M
|   |   ├──6:Conda虚拟环境创建与Python模块安装 .mp447.66M
|   |   ├──7:关联虚拟环境运行代码 .mp426.32M
|   |   ├──代码.rar509.90kb
|   |   ├──人工智能-第1阶段Python基础.pdf9.37M
|   |   └──人工智能-第1阶段python进阶和高级编程.pdf7.52M
|   └──章节2:Python基础语法
|   |   ├──10:Python_控制语句_多分支_三元条件运算符 .mp421.39M
|   |   ├──11:Python_控制语句_while循环 .mp416.32M
|   |   ├──12:Python_控制语句_for循环 .mp418.68M
|   |   ├──13:Python_控制语句_嵌套循环 .mp427.86M
|   |   ├──14:Python_控制语句_break_continue .mp416.39M
|   |   ├──15:Python_切片操作 .mp430.52M
|   |   ├──16:Python_数据类型 .mp420.88M
|   |   ├──17:Python_集合操作_列表 .mp424.10M
|   |   ├──18:Python_集合操作_列表的基本操作 .mp435.13M
|   |   ├──19:Python_集合操作_列表的常用方法 .mp426.62M
|   |   ├──20:Python_集合操作_元组 .mp429.08M
|   |   ├──21:Python_集合操作_字典和常见操作 .mp425.76M
|   |   ├──22:Python_集合操作_字典keys方法_enumerate函数 .mp418.07M
|   |   ├──23:Python_os模块_shutil模块 .mp436.75M
|   |   ├──24:Python_打开并读取文件_中文编码问题 .mp438.72M
|   |   ├──25:Python_函数_定义_调用_返回值_注释 .mp418.23M
|   |   ├──26:Python_函数_局部变量_全局变量 .mp423.50M
|   |   ├──27:Python_函数_默认参数_可变参数 .mp418.06M
|   |   ├──28:Python_函数_递归 .mp418.20M
|   |   ├──29:Python_函数式编程_高阶函数 .mp417.71M
|   |   ├──30:Python_函数式编程_map_reduce_filter_匿名函数 .mp426.94M
|   |   ├──31:Python_函数_闭包 .mp427.49M
|   |   ├──32:Python_函数_装饰器 .mp419.34M
|   |   ├──33:Python_类对象_定义与实例化对象 .mp436.96M
|   |   ├──34:Python_类对象_实例属性和方法_类属性和方法 .mp426.21M
|   |   ├──35:Python_类对象_内置方法 .mp419.39M
|   |   ├──36:Python_类对象_运算符重载_私有对象方法_isinstance函数 .mp426.22M
|   |   ├──37:Python_类对象_面向对象三大特性_类的继承 .mp420.15M
|   |   ├──38:Python_类对象_子类复用父类构造器和方法_方法重写 .mp420.79M
|   |   ├──8:Python是强类型的动态脚本语言 .mp427.23M
|   |   ├──9:Python_控制语句_单双分支 .mp439.27M
|   |   └──新建文本文档.txt0.51kb
├──03、人工智能基础-Python科学计算和可视化
|   ├──章节1:科学计算模型Numpy
|   |   ├──1:Numpy_概述_安装_创建数组_获取shape形状 .mp430.30M
|   |   ├──2:Numpy_array_arange .mp423.56M
|   |   ├──3:Numpy_random随机数生成 .mp435.81M
|   |   ├──4:Numpy_ndarray属性_zeros_ones_like等创建数组函数 .mp432.59M
|   |   ├──5:NumPy_reshape_切片操作_copy函数 .mp422.70M
|   |   ├──6:Numpy_改变数组维度_数组的拼接 .mp430.40M
|   |   ├──7:Numpy_数组的切分和转置 .mp419.19M
|   |   ├──8:Numpy_算术运算_向上向下取整 .mp423.03M
|   |   ├──9:Numpy_聚合函数 .mp415.33M
|   |   └──新建文本文档.txt0.36kb
|   ├──章节2:数据可视化模块
|   |   ├──10:Matplotlib_概述_绘制直线图 .mp428.64M
|   |   ├──11:Matplotlib_绘制正余弦曲线_散点图_添加图例 .mp423.68M
|   |   ├──12:Matplotlib_绘制柱状图_画布切分多个子画布_柱状图对比 .mp434.98M
|   |   ├──13:Matplotlib_绘制饼图_直方图_同时绘制多组数据分布 .mp421.29M
|   |   ├──14:Matplotlib_绘制等高线图_绘制三维图像 .mp424.37M
|   |   ├──1599293649514137.png18.62kb
|   |   ├──人工智能-第1阶段数据分析(含办公自动化分析).pdf6.04M
|   |   └──新建文本文档.txt0.16kb
|   └──章节3:数据处理分析模块Pandas
|   |   ├──15:Python_Pandas_Series对象创建 .mp422.96M
|   |   ├──16:Python_Pandas_DataFrame对象创建 .mp424.82M
|   |   ├──17:Python_Pandas_获取Series对象的值 .mp415.52M
|   |   ├──18:Python_Pandas_获取DataFrame对象的值 .mp418.85M
|   |   ├──19:Python_Pandas_条件过滤 .mp417.28M
|   |   ├──20:Python_Pandas_空值的删除与填充 .mp433.25M
|   |   ├──21:Python_Pandas_拼接和合并 .mp427.91M
|   |   └──新建文本文档.txt0.37kb
├──04、人工智能基础-高等数学知识强化
|   ├──10:高阶导数_导数判断单调性_导数与极值 .mp415.30M
|   ├──11:导数判断凹凸性_导数用于泰勒展开 .mp431.49M
|   ├──12:向量的意义_n维欧式空间空间 .mp415.35M
|   ├──13:行向量列向量_转置_数乘_加减乘除 .mp414.17M
|   ├──14:向量的内积_向量运算法则 .mp414.38M
|   ├──15:学习向量计算的用途举例 .mp416.84M
|   ├──16:向量的范数_范数与正则项的关系 .mp423.52M
|   ├──17:特殊的向量 .mp419.38M
|   ├──18:矩阵_方阵_对称阵_单位阵_对角阵 .mp413.47M
|   ├──19:矩阵的运算_加减法_转置 .mp417.35M
|   ├──1:人工智能学习数学的必要性_微积分知识点 .mp418.97M
|   ├──20:矩阵相乘 .mp414.36M
|   ├──21:矩阵的逆矩阵 .mp427.58M
|   ├──22:矩阵的行列式 .mp414.61M
|   ├──23:多元函数求偏导 .mp416.34M
|   ├──24:高阶偏导数_梯度 .mp419.74M
|   ├──25:雅可比矩阵_在神经网络中应用 .mp426.04M
|   ├──26:Hessian矩阵 .mp422.55M
|   ├──27:二次型 .mp418.55M
|   ├──28:补充关于正定负定的理解 .mp413.06M
|   ├──29:特征值和特征向量(1) .mp419.45M
|   ├──2:线性代数_概率论知识点 .mp417.26M
|   ├──30:特征值和特征向量(2) .mp418.01M
|   ├──31:特征值分解 .mp426.18M
|   ├──32:多元函数的泰勒展开_矩阵和向量的求导 .mp430.50M
|   ├──33:奇异值分解定义 .mp416.37M
|   ├──34:求解奇异值分解中的UΣV矩阵 .mp434.04M
|   ├──35:奇异值分解性质_数据压缩 .mp423.36M
|   ├──36:SVD用于PCA降维 .mp417.58M
|   ├──37:SVD用于协同过滤_求逆矩阵 .mp423.76M
|   ├──38:概率论_随机事件与随机事件概率 .mp414.04M
|   ├──39:条件概率_贝叶斯公式 .mp421.97M
|   ├──3:最优化知识_数学内容学习重点 .mp425.90M
|   ├──40:随机变量 .mp417.17M
|   ├──41:数学期望和方差 .mp416.18M
|   ├──42:常用随机变量服从的分布 .mp414.64M
|   ├──43:随机向量_独立性_协方差_随机向量的正太分布 .mp422.95M
|   ├──44:最大似然估计思想 .mp416.62M
|   ├──45:最优化的基本概念 .mp423.95M
|   ├──46:迭代求解的原因 .mp412.99M
|   ├──47:梯度下降法思路 .mp419.41M
|   ├──48:梯度下降法的推导 .mp431.39M
|   ├──49:牛顿法公式推导以及优缺点 .mp430.04M
|   ├──4:导数的定义_左导数和右导数 .mp420.10M
|   ├──50:坐标下降法_数值优化面临的问题 .mp417.05M
|   ├──51:凸集 .mp414.02M
|   ├──52:凸函数 .mp412.35M
|   ├──53:凸优化的性质_一般表达形式 .mp414.81M
|   ├──54:拉格朗日函数 .mp419.74M
|   ├──5:导数的几何意义和物理意义 .mp410.21M
|   ├──6:常见函数的求导公式 .mp415.80M
|   ├──7:导数求解的四则运算法则 .mp418.96M
|   ├──8:复合函数求导法则 .mp411.79M
|   ├──9:推导激活函数的导函数 .mp423.54M
|   └──数学.pdf1.50M
├──05、机器学习-线性回归
|   ├──章节1:多元线性回归
|   |   ├──10:对数似然函数_推导出损失函数MSE .mp423.06M
|   |   ├──11:把目标函数按照线性代数的方式去表达 .mp414.44M
|   |   ├──12:推导出目标函数的导函数形式 .mp423.33M
|   |   ├──13:θ解析解的公式_是否要考虑损失函数是凸函数 .mp427.93M
|   |   ├──14:Python开发环境版本的选择及下载 .mp423.08M
|   |   ├──15:Anaconda环境安装_Pycharm环境安装 .mp426.51M
|   |   ├──16:Pycharm创建脚本并测试python开发环境 .mp417.38M
|   |   ├──17:解析解的方式求解多元线性回归_数据Xy .mp416.74M
|   |   ├──18:解析解的方式求解多元线性回归_求解模型_使用模型_绘制图形 .mp419.95M
|   |   ├──19:解析解的方式求解多元线性回归_扩展随机种子概念_增加维度代码的变换 .mp414.08M
|   |   ├──1:理解简单线性回归 .mp421.25M
|   |   ├──20:Scikit-learn模块的介绍 .mp416.91M
|   |   ├──21:调用Scikit-learn中的多元线性回归求解模型(上) .mp413.17M
|   |   ├──22:调用Scikit-learn中的多元线性回归求解模型(下) .mp417.24M
|   |   ├──2:最优解_损失函数_MSE .mp419.54M
|   |   ├──3:扩展到多元线性回归 .mp414.47M
|   |   ├──4:理解多元线性回归表达式几种写法的原因 .mp416.21M
|   |   ├──5:理解维度这个概念 .mp421.22M
|   |   ├──6:理解回归一词_中心极限定理_正太分布和做预测 .mp428.17M
|   |   ├──7:假设误差服从正太分布_最大似然估计MLE .mp421.44M
|   |   ├──8:引入正太分布的概率密度函数 .mp414.86M
|   |   ├──9:明确目标通过最大总似然求解θ .mp414.53M
|   |   ├──代码.rar1.50kb
|   |   ├──第一阶段_手把手教你透彻掌握线性回归算法.pdf2.71M
|   |   ├──软件.rar777.48M
|   |   └──新建文本文档.txt0.28kb
|   ├──章节2:梯度下降法
|   |   ├──23:梯度下降法产生的目的和原因以及思想 .mp428.12M
|   |   ├──24:梯度下降法公式 .mp428.41M
|   |   ├──25:学习率设置的学问_全局最优解 .mp426.42M
|   |   ├──26:梯度下降法迭代流程总结 .mp415.17M
|   |   ├──27:多元线性回归下的梯度下降法 .mp421.80M
|   |   ├──28:全量梯度下降 .mp430.60M
|   |   ├──29:随机梯度下降_小批量梯度下降 .mp426.32M
|   |   ├──30:对应梯度下降法的问题和挑战 .mp422.61M
|   |   ├──31:轮次和批次 .mp426.67M
|   |   ├──32:代码实现全量梯度下降第1步和第2步 .mp412.82M
|   |   ├──33:代码实现全量梯度下降第3步和第4步 .mp414.09M
|   |   ├──34:代码实现随机梯度下降 .mp412.28M
|   |   ├──35:代码实现小批量梯度下降 .mp411.67M
|   |   ├──36:代码改进保证训练数据全都能被随机取到 .mp416.08M
|   |   ├──37:代码改进实现随着迭代增加动态调整学习率 .mp416.67M
|   |   ├──代码.rar1.73kb
|   |   ├──第四阶段_梯度下降法_归一化_正则化_多项式升维.pdf2.59M
|   |   └──新建文本文档.txt0.25kb
|   ├──章节3:归一化
|   |   ├──38:归一化的目的_维度之间数量级不同产生的矛盾 .mp430.26M
|   |   ├──39:归一化的目的_举例子来理解做归一化和不做归一化的区别 .mp417.01M
|   |   ├──40:归一化的副产品_有可能会提高模型的精度 .mp412.57M
|   |   ├──41:最大值最小值归一化 .mp414.09M
|   |   ├──42:标准归一化 .mp425.97M
|   |   └──新建文本文档.txt0.27kb
|   ├──章节4:正则化
|   |   ├──43:代码完成标准归一化 .mp421.69M
|   |   ├──44:正则化的目的防止过拟合 .mp416.50M
|   |   ├──45:正则化通过损失函数加入惩罚项使得W越小越好 .mp419.21M
|   |   ├──46:常用的L1和L2正则项以及数学意义 .mp420.13M
|   |   ├──47:L1稀疏性和L2平滑性 .mp426.03M
|   |   ├──48:通过L1和L2的导函数理解区别的本质原因 .mp426.35M
|   |   └──新建文本文档.txt0.31kb
|   └──章节5:Lasso回归_Ridge回归_多项式回归
|   |   ├──49:代码调用Ridge岭回归 .mp426.07M
|   |   ├──50:代码调用Lasso回归 .mp412.59M
|   |   ├──51:代码调用ElasticNet回归 .mp418.07M
|   |   ├──52:升维的意义_多项式回归 .mp422.22M
|   |   ├──53:多项式升维代码实战_传入不同超参数对比 .mp421.30M
|   |   ├──54:多项式升维代码实战_训练模型和评估 .mp415.88M
|   |   ├──55:实战保险花销预测_数据介绍和加载数据 .mp418.58M
|   |   ├──56:实战保险花销预测_数据预处理 .mp419.64M
|   |   ├──57:实战保险花销预测_模型训练和评估_选择非线性算法改进 .mp435.56M
|   |   ├──58:实战保险花销预测_特征选择思路 .mp416.51M
|   |   ├──59:实战保险花销预测_特征工程 .mp49.32M
|   |   ├──60:实战保险花销预测_模型训练和评估 .mp420.51M
|   |   ├──代码.rar126.37kb
|   |   └──新建文本文档.txt0.28kb
├──06、机器学习-线性分类
|   ├──章节1:逻辑回归
|   |   ├──1.txt1.29kb
|   |   ├──10:绘制逻辑回归损失函数_探索两个参数和损失函数变换关系 .mp417.81M
|   |   ├──11:绘制逻辑回归损失函数_绘制3D的图形_分析X1X2两个维度的重要度 .mp416.90M
|   |   ├──12:对逻辑回归函数进行求导_结论在后面会用到 .mp411.25M
|   |   ├──13:对逻辑回归的损失函数求导_推导出导函数的形式 .mp421.28M
|   |   ├──14:实战逻辑回归对鸢尾花数据集进行二分类 .mp417.78M
|   |   ├──15:OneVsRest将多分类问题转化成多个二分类问题 .mp412.09M
|   |   ├──16:实战逻辑回归对鸢尾花数据集进行多分类 .mp418.20M
|   |   ├──1:逻辑回归_Sigmoid函数 .mp410.76M
|   |   ├──2:sigmoid函数作用 .mp421.37M
|   |   ├──3:逻辑回归为什么用sigmoid函数_预备知识 .mp418.66M
|   |   ├──4:证明伯努利分布是指数族分布_推导出逻辑回归公式 .mp423.51M
|   |   ├──5:回想多元线性回归公式其实也是从广义线性回归推导出来的 .mp44.31M
|   |   ├──6:推导逻辑回归损失函数_得到总似然的公式 .mp415.43M
|   |   ├──7:推导逻辑回归损失函数_得到最终形式 .mp47.85M
|   |   ├──8:绘制逻辑回归损失函数_读入数据计算最优解模型_实现逻辑回归预测_实现逻辑回归损失函数 .mp425.03M
|   |   ├──9:绘制逻辑回归损失函数_探索单个参数和损失的关系 .mp414.07M
|   |   ├──代码.rar1.77kb
|   |   └──第五阶段_线性分类算法_逻辑回归和Softmax回归.pdf1.09M
|   ├──章节2:Softmax回归
|   |   ├──1.txt0.80kb
|   |   ├──17:证明多项式分布属于指数族分布一种 .mp414.67M
|   |   ├──18:从广义线性回归的η推导出来Softmax的公式 .mp49.91M
|   |   ├──19:有了Softmax函数的公式就可以去计算loss_Softmax的Loss函数形式其实就是LR的泛化版本 .mp416.55M
|   |   ├──20:再次证明Softmax损失函数当K=2时就是逻辑回归损失函数 .mp415.21M
|   |   ├──21:证明Softmax公式K=2的时候就是逻辑回归_平移不变性 .mp47.58M
|   |   ├──22:逻辑回归和Softmax回归在多分类任务模型参数上的区别_与算法在选择上的区别 .mp421.45M
|   |   ├──23:实战音乐分类器_讲解需求和读取数据 .mp414.06M
|   |   ├──24:实战音乐分类器_探索不同曲风音乐文件的时间频率图 .mp420.20M
|   |   ├──25:实战音乐分类器_傅里叶变换可以帮助我们做什么 .mp412.88M
|   |   ├──26:实战音乐分类器_代码使用傅里叶变换将混音文件进行投影 .mp416.92M
|   |   ├──27:实战音乐分类器_代码对单首歌曲进行傅里叶变换_代码对600首音乐文件进行傅里叶变换并保存结果 .mp421.18M
|   |   ├──28:实战音乐分类器_代码读取600首傅里叶变换后的数据_构建训练集并训练模型 .mp417.08M
|   |   ├──29:实战音乐分类器_模型的测试和调优_解决双通道音乐文件的问题 .mp428.95M
|   |   ├──代码.rar47.89kb
|   |   └──数据.rar2.27G
|   ├──章节3:SVM支持向量机算法
|   |   ├──1.txt0.20kb
|   |   ├──30:SVM与感知机关系_几何距离与函数距离 .mp477.74M
|   |   ├──31:SVM的思想 .mp435.91M
|   |   ├──32:几种SVM_SVM的损失函数 .mp447.92M
|   |   ├──33:数学预备知识_拉格朗日函数 .mp472.17M
|   |   ├──34:硬间隔SVM的两步优化 .mp464.89M
|   |   ├──35:总结硬间隔SVM .mp423.25M
|   |   ├──36:软间隔SVM和总结流程 .mp476.87M
|   |   ├──37:非线性SVM .mp436.91M
|   |   ├──38:SVM在sklearn中的使用_超参数 .mp480.08M
|   |   ├──SVM算法.pdf2.52M
|   |   └──代码.rar1.05M
|   └──章节4:SMO优化算法
|   |   ├──1.txt0.18kb
|   |   ├──39:SVM算法流程总结 .mp431.71M
|   |   ├──40:SMO算法求解思路_分解成很多个子二次规划问题分别求解 .mp435.51M
|   |   ├──41:SMO将交给它的目标函数变成二元函数进一步变成一元函数 .mp432.63M
|   |   ├──42:对一元函数求极值点_推导出旧的α和新的α的关系 .mp426.41M
|   |   ├──43:将公式467带入导函数进一步简化_对求解出的新的α2进行剪裁 .mp443.47M
|   |   ├──44:再次说明α2如何进行剪裁的思路_根据α2求α1 .mp417.78M
|   |   ├──45:启发式选择两个α .mp49.68M
|   |   ├──46:如何计算阈值b .mp419.48M
|   |   ├──47:SVM的SMO实现读取数据和计算fx与Ei .mp443.99M
|   |   ├──48:SVM的SMO实现判断违背条件的α1 .mp410.02M
|   |   ├──49:SVM的SMO实现应用公式计算alphas和b .mp412.37M
|   |   ├──50:SVM绘制已有数据点和超平面以及边界 .mp49.49M
|   |   ├──51:关于sklearn中的SVM封装的类和超参 .mp411.81M
|   |   ├──52:概率化输出_SVM的合页损失函数_Tensorflow实现GD方式求解SVM .mp441.37M
|   |   ├──53:OVR和OVO多分类_算法小结_对比逻辑回归 .mp423.17M
|   |   └──代码.rar12.43kb
├──07、机器学习-无监督学习
|   ├──章节1:聚类系列算法
|   |   ├──1.txt0.29kb
|   |   ├──1:KMeans聚类流程_距离测度欧式距离和余弦距离_ev.mp491.94M
|   |   ├──2:距离测度欧式距离和余弦距离的场景_TFIDF_ev.mp478.44M
|   |   ├──3:KMeans的一些变形_KMeans的损失函数推导及假设_ev.mp486.57M
|   |   ├──4:mini-batchKMeans_Canopy聚类_聚类评估指标_ev.mp4117.54M
|   |   ├──5:KMeans代码测试不同情况下的聚类效果_ev.mp497.13M
|   |   ├──6:层次聚类_密度聚类_谱聚类_ev.mp4156.59M
|   |   ├──代码.rar4.86kb
|   |   └──聚类.pdf2.74M
|   ├──章节2:EM算法和GMM高斯混合模型
|   |   ├──1.txt0.32kb
|   |   ├──10:Jensen不等式的应用_ev.mp489.00M
|   |   ├──11:将EM算法应用到GMM中并且推导出了μ和Σ的公式_ev.mp493.56M
|   |   ├──12:将EM算法应用到GMM中并且推导出Π的公式_ev.mp426.95M
|   |   ├──13:GMM前景背景分离_ev.mp413.41M
|   |   ├──14:通过声音文件利用GMM算法识别性别_ev.mp4110.81M
|   |   ├──15:通过声音文件利用GMM算法识别是谁_ev.mp439.76M
|   |   ├──7:单个高斯分布GM的参数估计_ev.mp472.12M
|   |   ├──8:理解GMM高斯混合分布的对数似然函数_ev.mp459.30M
|   |   ├──9:GMM参数估计Πμσ的流程_ev.mp463.98M
|   |   ├──EM算法与GMM模型.pdf725.20kb
|   |   └──代码.rar466.39M
|   └──章节3:PCA降维算法
|   |   ├──1.txt0.34kb
|   |   ├──16:特征选择与特征映射_ev.mp440.60M
|   |   ├──17:PCA的最大投影方差思路_ev.mp4114.36M
|   |   ├──18:最大投影方差推导_最小投影距离思路_ev.mp493.96M
|   |   ├──19:SVD其实就可以去实现PCA了_ev.mp478.14M
|   |   ├──20:PCA的几种应用_ev.mp446.12M
|   |   └──PCA降维与SVD.pdf864.92kb
├──08、机器学习-决策树系列
|   ├──章节1:决策树
|   |   ├──代码
|   |   ├──文档
|   |   ├──10:绘制决策树模型_寻找最优树深度_ev.mp452.69M
|   |   ├──11:代码训练回归树拟合SineWave_ev.mp441.16M
|   |   ├──12:后剪枝的意义_ev.mp428.32M
|   |   ├──13:CCP代价复杂度后剪枝_ev.mp470.83M
|   |   ├──14:CCP代价复杂度剪枝_α超参数设定_ev.mp430.41M
|   |   ├──1:决策树模型的特点_ev.mp435.90M
|   |   ├──2:决策树的数学表达_ev.mp437.57M
|   |   ├──3:如何构建一颗决策树_ev.mp433.05M
|   |   ├──4:什么是更好的一次划分_ev.mp426.87M
|   |   ├──5:Gini系数_ev.mp450.14M
|   |   ├──6:信息增益_ev.mp435.48M
|   |   ├──7:熵与Gini系数关系_信息增益率_ev.mp449.75M
|   |   ├──8:预剪枝以及相关超参数_ev.mp467.96M
|   |   ├──9:代码实战决策树对鸢尾花数据集分类_ev.mp440.61M
|   |   └──新建文本文档.txt0.31kb
|   ├──章节2:集成学习和随机森林
|   |   ├──代码
|   |   ├──15:不同聚合方式_生成不同弱学习器方式_ev.mp443.72M
|   |   ├──16:Bagging_Boosting_Stacking_ev.mp432.58M
|   |   ├──17:随机森林_ev.mp446.30M
|   |   ├──18:代码实战随机森林对鸢尾花数据集分类_ev.mp449.28M
|   |   ├──19:OOB袋外数据_ev.mp451.72M
|   |   ├──20:Adaboost算法思路_ev.mp447.04M
|   |   ├──21:调整数据权重让权重正确率达到50%_ev.mp436.06M
|   |   ├──22:Adaboost如何调整样本权重和求基模型权重_ev.mp448.95M
|   |   └──新建文本文档.txt0.27kb
|   ├──章节3:GBDT
|   |   ├──代码
|   |   ├──23:GBDT试图使用有监督最优化算法梯度下降求解F(x)_ev.mp431.79M
|   |   ├──24:GBDT令每个弱学习器f(x)去拟合负梯度_ev.mp448.21M
|   |   ├──25:GBDT每棵树都是回归树_准备数据才能训练下一颗小树_ev.mp443.03M
|   |   ├──26:GBDT应用于回归问题_ev.mp447.05M
|   |   ├──27:GBDT回归举例_总结_ev.mp445.60M
|   |   ├──28:GBDT应用于二分类问题_ev.mp438.77M
|   |   ├──29:GBDT二分类拟合的负梯度依然是残差_ev.mp446.05M
|   |   ├──30:GBDT中shrinkage学习率和最优树权重ρ可以共存_ev.mp434.44M
|   |   ├──31:GBDT应用于多分类任务_ev.mp434.17M
|   |   ├──32:GBDT多分类如何每轮给K颗小树准备要去拟合的负梯度_ev.mp432.69M
|   |   ├──33:GBDT多分类流程_ev.mp439.29M
|   |   ├──34:对比GBDT回归、二分类、多分类相同点与不同点_ev.mp427.63M
|   |   ├──35:GBDT二分类叶子节点分值计算推导_ev.mp440.64M
|   |   ├──36:GBDT多分类叶子节点分值计算_ev.mp429.43M
|   |   ├──37:GBDT二分类举例详解_ev.mp439.43M
|   |   ├──38:GBDT多分类举例详解_ev.mp441.29M
|   |   ├──39:计算特征重要度进行特征选择_ev.mp426.62M
|   |   ├──40:GBDT用于特征组合降维_ev.mp423.35M
|   |   ├──41:特征组合降维在GBDT+LR架构应用_ev.mp428.63M
|   |   ├──42:GBDT在sklearn中源码剖析_初始化F(x)_ev.mp443.20M
|   |   ├──43:GBDT在sklearn中源码剖析_负梯度计算和叶子节点分值计算_ev.mp438.69M
|   |   ├──44:GBDT+LR架构训练模型代码实现_ev.mp446.16M
|   |   ├──45:GBDT+LR架构预测评估代码实现_ev.mp433.95M
|   |   └──新建文本文档.txt0.35kb
|   └──章节4:XGBoost
|   |   ├──代码
|   |   ├──文档
|   |   ├──46:回顾有监督机器学习三要素_ev.mp441.77M
|   |   ├──47:Bias_Variance_Trade-off_ev.mp434.34M
|   |   ├──48:基于树集成学习4个优点_ev.mp440.85M
|   |   ├──49:回顾基于树集成学习的模型和参数并举例说明_ev.mp441.64M
|   |   ├──50:通过目标函数Obj来达到准确率和复杂度平衡_ev.mp423.73M
|   |   ├──51:Objective_vs_Heuristic_ev.mp431.41M
|   |   ├──52:得出XGBoost最开始的Obj目标函数_ev.mp441.54M
|   |   ├──53:推导XGBoost对Loss二阶泰勒展开之后的Obj_ev.mp425.78M
|   |   ├──54:Obj化简常数项_明确训练每颗回归树需要准备gi和hi_ev.mp434.30M
|   |   ├──55:重新定义树ft和树的复杂度Ω_ev.mp435.02M
|   |   ├──56:由每个叶子节点重组目标函数Obj_ev.mp430.39M
|   |   ├──57:推导XGBoost出Wj计算公式_推导评价树好坏的Obj_ev.mp431.89M
|   |   ├──58:根据Obj收益指导每一次分裂从而学习一棵树结构_ev.mp446.88M
|   |   ├──59:举例说明从连续型和离散型变量中寻找最佳分裂条件_ev.mp432.75M
|   |   ├──60:XGBoost中防止过拟合的前剪枝_后剪枝_学习率_ev.mp431.75M
|   |   ├──61:样本权重对于模型学习的影响_ev.mp427.68M
|   |   ├──62:总结XGBoost的特性_包括缺失值的处理策略_ev.mp456.21M
|   |   └──新建文本文档.txt0.35kb
├──09、机器学习-概率图模型
|   ├──章节1:贝叶斯分类
|   |   ├──1.txt0.35kb
|   |   ├──1:朴素贝叶斯分类算法_ev.mp4116.00M
|   |   ├──2:TF-IDF_ev.mp449.47M
|   |   ├──3:NB代码实现解析_ev.mp499.87M
|   |   ├──4:sklearn中调用NB_顺便讲解了GridSearchCV_ev.mp4101.38M
|   |   ├──5:语言模型的设计目的_MLE的作用进行参数估计_ev.mp494.28M
|   |   ├──6:贝叶斯网络_马尔可夫链_ev.mp431.65M
|   |   ├──NB_HMM.pdf826.78kb
|   |   └──代码.rar7.43kb
|   ├──章节2:HMM算法
|   |   ├──1.txt0.44kb
|   |   ├──10:HMM预测问题使用维特比算法_ev.mp426.12M
|   |   ├──11:HMM复习_明确概率计算问题要解决的目标_ev.mp464.56M
|   |   ├──12:前向算法来解决概率计算问题_ev.mp427.36M
|   |   ├──13:Viterbi算法案例详解_ev.mp471.72M
|   |   ├──14:Viterbi算法代码实现_ev.mp432.88M
|   |   ├──7:HMM隐马的定义_ev.mp432.90M
|   |   ├──8:HMM隐马的三组参数_三个基本问题_ev.mp456.02M
|   |   ├──9:HMM预测问题使用前向算法_ev.mp435.97M
|   |   ├──代码.rar0.94kb
|   |   └──资料.rar26.48kb
|   └──章节3:CRF算法
|   |   ├──1.txt0.27kb
|   |   ├──15:NER与分词和POS的关系_NER的标注策略_NER的主要方法_ev.mp484.69M
|   |   ├──16:讲解了一下常见的深度学习LSTM+CRF的网络拓扑_ev.mp440.02M
|   |   ├──17:了解CRF层添加的好处_ev.mp462.98M
|   |   ├──18:EmissionScore_TransitionScore_ev.mp451.66M
|   |   ├──19:CRF的目标函数_ev.mp414.34M
|   |   ├──20:计算CRF真实路径的分数_ev.mp444.32M
|   |   ├──21:计算CRF所有可能路径的总分数_ev.mp486.34M
|   |   ├──22:通过模型来预测新的句子的序列标签_ev.mp450.15M
|   |   └──CRF_NER.pdf1.17M
├──10、机器学习与大数据-Kaggle竞赛实战
|   ├──章节1:药店销量预测案例
|   |   ├──1:Rossmann药店销量预测_kaggle的介绍_ev.mp412.98M
|   |   ├──2:对数据字段的介绍_导包_ev.mp48.63M
|   |   ├──3:自定义损失函数_ev.mp49.44M
|   |   ├──4:对数据里面的目标变量sales的一个分析_ev.mp416.91M
|   |   ├──5:数据的预处理_ev.mp444.16M
|   |   ├──6:模型的训练_评估_ev.mp423.62M
|   |   ├──7:kaggle竞赛网站学习_ev.mp453.20M
|   |   ├──代码.rar6.42M
|   |   └──新建文本文档.txt0.38kb
|   └──章节2:网页分类案例
|   |   ├──10:评估指标ROC和AUC_ev.mp420.69M
|   |   ├──11:竞赛其他相关提交成绩排行榜_ev.mp419.99M
|   |   ├──12:数据导入_ev.mp423.63M
|   |   ├──13:MLlib对网页分类竞赛数据预处理_ev.mp438.72M
|   |   ├──14:MLlib对网页分类竞赛数据预处理_模型训练_ev.mp428.04M
|   |   ├──15:MLlib对网页分类竞赛模型训练_模型训练评估_搜索最佳超参数_ev.mp425.53M
|   |   ├──16:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_01_ev.mp437.65M
|   |   ├──17:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_02_ev.mp436.02M
|   |   ├──18:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_03_ev.mp428.96M
|   |   ├──19:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_04_ev.mp430.51M
|   |   ├──8:Kaggle网页分类竞赛介绍_ev.mp411.17M
|   |   ├──9:评估指标ROC和AUC_ev.mp422.35M
|   |   ├──代码.rar8.81M
|   |   └──新建文本文档.txt0.28kb
├──11-机器学习与大数据-海量数据挖掘工具
|   ├──章节1:Spark计算框架基础
|   |   ├──1.txt0.31kb
|   |   ├──10:分布式计算所需进程_ev.mp415.58M
|   |   ├──11:两种算子操作本质区别_ev.mp426.08M
|   |   ├──12:Spark算子操作实战讲解_代码实战WordCount_01_ev.mp431.67M
|   |   ├──13:Spark算子操作实战讲解_代码实战WordCount_02_ev.mp425.90M
|   |   ├──14:Spark算子操作实战讲解_代码实战WordCount_03_ev.mp420.19M
|   |   ├──15:Spark算子操作实战讲解_代码实战WordCount_04_ev.mp417.85M
|   |   ├──1:Spark特性_01_ev.mp425.08M
|   |   ├──2:Spark特性_02_ev.mp417.40M
|   |   ├──3:Spark对比hadoop优势_ev.mp412.38M
|   |   ├──4:回顾hadoop讲解shuffle_ev.mp419.97M
|   |   ├──5:分布式计算框架Shuffle的原理_01_ev.mp425.51M
|   |   ├──6:分布式计算框架Shuffle的原理_02_ev.mp425.73M
|   |   ├──7:分布式计算框架Shuffle的原理_03_ev.mp417.39M
|   |   ├──8:Spark的RDD特性_01_ev.mp419.34M
|   |   ├──9:Spark的RDD特性_02_ev.mp421.87M
|   |   ├──代码.rar383.20M
|   |   └──资料.rar1.49M
|   ├──章节2:Spark计算框架深入
|   |   ├──1.txt0.37kb
|   |   ├──16:Spark数据缓存机制_ev.mp429.16M
|   |   ├──17:Spark宽依赖和窄依赖_01_ev.mp424.86M
|   |   ├──18:Spark宽依赖和窄依赖_02_ev.mp422.51M
|   |   ├──19:Spark宽依赖和窄依赖_03_ev.mp415.81M
|   |   ├──20:Spark术语总结_ev.mp440.14M
|   |   ├──21:分布式文件系统Block块的大小配置_ev.mp444.18M
|   |   ├──22:Spark程序启动运行流程详解_01_ev.mp419.59M
|   |   ├──23:Spark程序启动运行流程详解_02_ev.mp428.61M
|   |   ├──24:Spark程序启动运行流程详解_03_ev.mp419.88M
|   |   ├──25:讲解构建稀疏和稠密向量_01_ev.mp433.93M
|   |   ├──26:讲解构建稀疏和稠密向量_01_ev.mp436.24M
|   |   ├──27:构建LabeledPoint_ev.mp444.27M
|   |   └──28:介绍SparkMLlib模块中实现的算法和调用_ev.mp434.98M
|   └──章节3:Spark机器学习MLlib和ML模块
|   |   ├──1.txt0.26kb
|   |   ├──29:SparkMLlib对于逻辑回归算法的调用_ev.mp449.29M
|   |   ├──30:SparkMLlib调用逻辑回归_自定义阈值_1_ev.mp452.43M
|   |   ├──31:SparkMLlib调用逻辑回归_自定义阈值_2_ev.mp447.11M
|   |   ├──32:SparkMLlib调用逻辑回归_使用标准归一化_1_ev.mp438.63M
|   |   ├──33:SparkMLlib调用逻辑回归_使用标准归一化_2_ev.mp465.62M
|   |   ├──34:SparkMLlib调用逻辑回归_使用标准归一化_3_ev.mp433.14M
|   |   ├──35:SparkMLlib调用逻辑回归_使用标准归一化_4_ev.mp443.60M
|   |   ├──36:SparkMLlib调用KMeans聚类_调用决策树(1)_1_ev.mp437.79M
|   |   ├──37:SparkMLlib调用KMeans聚类_调用决策树(1)_2_ev.mp447.15M
|   |   ├──38:SparkMLlib调用KMeans聚类_调用决策树(1)_3_ev.mp440.95M
|   |   ├──39:使用逻辑回归和随机森林对股票Stock预测案例实战_1_ev.mp443.42M
|   |   ├──40:使用逻辑回归和随机森林对股票Stock预测案例实战_2_ev.mp434.88M
|   |   ├──41:使用逻辑回归和随机森林对股票Stock预测案例实战_3_ev.mp434.72M
|   |   ├──42:从数据转化到训练集的构建_ev.mp463.43M
|   |   ├──43:模型的训练以及评估和调超参_1_ev.mp435.13M
|   |   ├──44:模型的训练以及评估和调超参_2_ev.mp432.20M
|   |   ├──45:模型的训练以及评估和调超参_3_ev.mp443.15M
|   |   ├──46:SparkML机器学习库概念讲解_1_ev.mp459.65M
|   |   ├──47:SparkML机器学习库概念讲解_2_ev.mp453.66M
|   |   ├──48:SparkML机器学习库代码实战讲解_1_ev.mp461.17M
|   |   ├──49:SparkML机器学习库代码实战讲解_2_ev.mp463.52M
|   |   ├──50:SparkML网页分类案例代码实战续(1)_1_ev.mp462.90M
|   |   ├──51:SparkML网页分类案例代码实战续(1)_2_ev.mp460.75M
|   |   ├──52:SparkML网页分类案例代码实战续(2)_1_ev.mp457.53M
|   |   ├──53:SparkML网页分类案例代码实战续(2)_2_ev.mp444.96M
|   |   ├──54:SparkML网页分类案例代码实战续(3)_ev.mp43.98M
|   |   └──资料.rar1.28M
├──12-机器学习与大数据-推荐系统项目实战
|   ├──章节1:推荐系统--流程与架构
|   |   ├──1.txt0.33kb
|   |   ├──10:推荐系统列表_关联特征权重_基本特征权重的计算_2_ev.mp443.64M
|   |   ├──11:推荐系统列表_关联特征权重_基本特征权重的计算_3_ev.mp441.91M
|   |   ├──12:推荐系统_数据源_1_ev.mp433.87M
|   |   ├──13:推荐系统_数据源_2_ev.mp431.31M
|   |   ├──1:推荐系统_隐式用户反馈_1_ev.mp444.96M
|   |   ├──2:推荐系统_隐式用户反馈_2_ev.mp449.06M
|   |   ├──3:推荐系统_协同过滤_1_ev.mp429.26M
|   |   ├──4:推荐系统_协同过滤_2_ev.mp428.44M
|   |   ├──5:推荐系统_协同过滤_3_ev.mp428.65M
|   |   ├──6:推荐系统_协同过滤_4_ev.mp429.76M
|   |   ├──7:推荐系统架构_实时_离线_1_ev.mp441.81M
|   |   ├──8:推荐系统架构_实时_离线_2_ev.mp441.79M
|   |   ├──9:推荐系统列表_关联特征权重_基本特征权重的计算_1_ev.mp437.58M
|   |   ├──数据.rar759.94kb
|   |   └──资料.rar2.67M
|   ├──章节2:推荐系统--数据预处理和模型构建评估实战
|   |   ├──1.txt0.38kb
|   |   ├──14:HQL语句_python脚本构建中间结果_1_ev.mp448.91M
|   |   ├──15:HQL语句_python脚本构建中间结果_2_ev.mp446.79M
|   |   ├──16:HQL语句_python脚本构建中间结果_3_ev.mp443.99M
|   |   ├──17:HQL语句_python脚本构建中间结果_4_ev.mp447.18M
|   |   ├──18:推荐系统_数据预处理_spark构建特征索引_标签列_1_ev.mp443.80M
|   |   ├──19:spark构建特征索引_标签列_2_ev.mp443.31M
|   |   ├──20:spark构建特征索引_标签列_3_ev.mp442.32M
|   |   ├──21:spark构建特征索引_标签列_4_ev.mp439.89M
|   |   ├──22:MLlib调用算法计算模型文件并存储_1_ev.mp440.21M
|   |   ├──23:MLlib调用算法计算模型文件并存储_2_ev.mp437.77M
|   |   ├──24:MLlib调用算法计算模型文件并存储_3_ev.mp443.55M
|   |   ├──25:ACC准确率和AUC面积的计算以及意义_ev.mp493.24M
|   |   ├──代码.rar6.12kb
|   |   ├──集群.rar6.46G
|   |   ├──软件.rar665.46M
|   |   ├──数据.rar2.90M
|   |   └──资料.rar468.42kb
|   └──章节3:推荐系统--模型使用和推荐服务
|   |   ├──1.txt0.43kb
|   |   ├──26:推荐模型文件使用思路_ev.mp425.82M
|   |   ├──27:Redis数据库安装及其使用_ev.mp416.62M
|   |   ├──28:实时在线推荐列表计算逻辑代码讲解_1_ev.mp450.63M
|   |   ├──29:实时在线推荐列表计算逻辑代码讲解_2_ev.mp440.17M
|   |   ├──30:实时在线推荐列表计算逻辑代码讲解_3_ev.mp436.75M
|   |   ├──31:实时在线推荐列表计算逻辑代码讲解_4_ev.mp436.51M
|   |   ├──32:使用Dubbo将推荐系统做成服务_1_ev.mp441.30M
|   |   ├──33:使用Dubbo将推荐系统做成服务_2_ev.mp441.40M
|   |   ├──34:使用Dubbo将推荐系统做成服务_3_ev.mp445.74M
|   |   ├──35:Dubbo推荐服务演示_SparkMLlib介绍_1_ev.mp451.29M
|   |   ├──36:Dubbo推荐服务演示_SparkMLlib介绍_2_ev.mp447.92M
|   |   ├──37:Dubbo推荐服务演示_SparkMLlib介绍_3_ev.mp450.71M
|   |   └──代码.rar42.15M
├──13-深度学习-原理和进阶
|   ├──章节1:神经网络算法
|   |   ├──1.txt0.36kb
|   |   ├──1:神经网络是有监督的算法_生物神经元到人工神经元_ev.mp463.30M
|   |   ├──2:三种常见的激活函数_网络拓扑介绍_优化算法_ev.mp433.55M
|   |   ├──3:单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类_ev.mp445.44M
|   |   ├──4:用神经网络理解Softmax回归_ev.mp444.38M
|   |   ├──5:隐藏层的意义_隐藏层相当于去做预处理_升维降维_ev.mp469.11M
|   |   ├──6:多节点网络输出_sklearn中NN模块的介绍_ev.mp453.02M
|   |   ├──7:sklearn中NN模型的代码使用_ev.mp469.28M
|   |   ├──8:隐藏层激活函数必须是非线性的_ev.mp413.69M
|   |   ├──9:tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装_ev.mp4132.12M
|   |   ├──神经网络.pdf518.13kb
|   |   └──资料.rar12.88M
|   ├──章节2:TensorFlow深度学习工具
|   |   ├──1.txt0.28kb
|   |   ├──10:CUDA下载地址_CUDA显卡白名单地址_ev.mp457.91M
|   |   ├──11:CUDA安装_cudnn安装_环境变量配置_检验是否安装成功_ev.mp460.71M
|   |   ├──12:Tensorflow代码运行机制_TF基础的代码_ev.mp498.16M
|   |   ├──13:TF实现线性回归解析解的方式_TF实现线性回归梯度下降的方式_ev.mp4106.23M
|   |   ├──14:TF实现线性回归BGD的方式_使用Optimizer_每轮打乱数据_ev.mp4130.43M
|   |   ├──15:TF实现Softmax回归来识别MNIST手写数字_ev.mp4108.49M
|   |   ├──16:TF实现DNN来识别MNIST手写数字_ev.mp4104.48M
|   |   ├──代码.rar27.29kb
|   |   └──软件.rar2.13G
|   └──章节3:反向传播推导_Python代码实现神经网络
|   |   ├──1.txt0.31kb
|   |   ├──17:反向传播_链式求导法则_ev.mp456.13M
|   |   ├──18:反向传播推导(一)_ev.mp491.08M
|   |   ├──19:反向传播推导(二)从输出层到最后一个隐藏层_ev.mp478.81M
|   |   ├──20:反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例_ev.mp465.08M
|   |   ├──21:反向传播推导(四)关于Δ和a还有梯度的更新事宜_ev.mp425.06M
|   |   ├──22:python实现神经网络训练代码讲解(一)_ev.mp450.79M
|   |   ├──23:python实现神经网络正向反向传播训练_ev.mp465.01M
|   |   ├──代码.rar2.83kb
|   |   └──资料.rar180.60kb
├──14-深度学习-图像识别原理
|   ├──章节1:卷积神经网络原理
|   |   ├──1.txt0.41kb
|   |   ├──1:回顾深度神经网络_卷积层是局部连接_ev.mp481.89M
|   |   ├──2:单通道卷积的计算_ev.mp465.27M
|   |   ├──3:彩色图片卷积的计算_ev.mp436.33M
|   |   ├──4:卷积层权值共享_ev.mp437.06M
|   |   ├──5:卷积的补充与Padding填充模式_ev.mp456.33M
|   |   ├──6:卷积的计算TF中的API操作与参数_ev.mp476.76M
|   |   ├──7:池化的概念和TF中的API的操作与参数_ev.mp452.54M
|   |   ├──8:经典的CNN架构和LeNet5_ev.mp490.93M
|   |   ├──代码.rar1.60kb
|   |   └──资料.rar3.08M
|   ├──章节2:卷积神经网络优化
|   |   ├──1.txt0.81kb
|   |   ├──10:Dropout技术点思想和运用_ev.mp472.22M
|   |   ├──11:数据增强技术点_CNN对MNIST数据集分类_卷积池化代码_ev.mp462.59M
|   |   ├──12:CNN对MNIST数据集分类_全连接层以及训练代码_ev.mp475.35M
|   |   ├──13:深度学习网络对应ACC准确率忽然下降的思考点_ev.mp463.34M
|   |   ├──14:减轻梯度消失问题中激活函数发挥的作用_ev.mp425.71M
|   |   ├──15:减轻梯度消失问题中参数初始化发挥的作用_ev.mp454.56M
|   |   ├──16:VGG网络结构_以及1乘1的卷积核的作用和好处_ev.mp476.57M
|   |   ├──17:Optimizer_SGD_Momentum_ev.mp459.32M
|   |   ├──18:Optimizer_Adagrad_Adadelta_RMSprop_ev.mp479.54M
|   |   ├──19:Optimizer_Adam_ev.mp479.91M
|   |   ├──9:AlexNet网络结构_连续使用小的卷积核好处_ev.mp460.49M
|   |   ├──代码.rar3.01kb
|   |   └──资料.rar25.89kb
|   ├──章节3:经典卷积网络算法
|   |   ├──1.txt0.37kb
|   |   ├──20:Keras介绍_以及不同项目调用不同的python环境和CUDA环境_ev.mp478.00M
|   |   ├──21:VGG16_Fine-tuning_对MNIST做手写数字识别_ev.mp489.69M
|   |   ├──22:InceptionV1_V2_ev.mp4131.69M
|   |   ├──23:InceptionV3_以及InceptionV3对皮肤癌图片识别_ev.mp4124.68M
|   |   ├──24:ResNet残差单元_BottlenetBlocK_ev.mp472.33M
|   |   ├──25:DenseNet和Keras里面的实现_ev.mp4116.93M
|   |   ├──26:DenseNet在Keras里面的代码实现_ev.mp452.49M
|   |   ├──27:BatchNormalization_ev.mp484.12M
|   |   ├──28:Mobilenet网络架构_ev.mp4123.63M
|   |   ├──代码.rar5.33kb
|   |   └──资料.rar5.05M
|   ├──章节4:古典目标检测
|   |   ├──1.txt0.23kb
|   |   ├──29:图像识别任务_古典目标检测_ev.mp4121.49M
|   |   ├──30:使用OpenCV调用分类器找到目标框_ev.mp473.92M
|   |   ├──31:IOU以及python计算的代码_ev.mp418.51M
|   |   ├──32:R-CNN和SPP-net_ev.mp468.40M
|   |   ├──33:从FastRCNN引入FasterRCNN_ev.mp493.80M
|   |   └──目标检测.pdf2.36M
|   └──章节5:现代目标检测之FasterRCNN
|   |   ├──1.txt0.25kb
|   |   ├──34:回顾RCNN_SPPnet_Fast-RCNN_ev.mp496.32M
|   |   ├──35:FasterRNN的核心RPN_正向传播的框过滤_NMS_ev.mp4152.24M
|   |   ├──36:NMS代码实现流程_mAP目标检测平均指标_ev.mp4105.18M
|   |   ├──37:FasterRCNN论文讲解_从介绍到RPN的loss_ev.mp4198.76M
|   |   ├──38:FasterRCNN论文讲解_从RPN损失到评估指标对比_ev.mp4250.49M
|   |   └──Faster R-CNN Towards Real-Time Object Detection with Region Proposal Networks.pdf6.49M
├──15-深度学习-图像识别项目实战
|   ├──章节1:车牌识别
|   |   ├──1:基于CascadeClassifier来提取目标框做车牌识别代码详解_01_ev.mp431.79M
|   |   ├──2:基于CascadeClassifier来提取目标框做车牌识别代码详解_02_ev.mp433.64M
|   |   ├──3:基于CascadeClassifier来提取目标框做车牌识别代码详解_03_ev.mp418.45M
|   |   ├──4:基于CascadeClassifier来提取目标框做车牌识别代码详解_04_ev.mp428.08M
|   |   ├──5:车牌识别项目关于目标检测的问题_ev.mp417.44M
|   |   └──car_license.rar177.04M
|   ├──章节2:自然场景下的目标检测及源码分析
|   |   ├──10:FasterRCNN项目代码_模型的训练_ev.mp417.61M
|   |   ├──11:回归整体训练流程_详解读取数据blob_01_ev.mp433.04M
|   |   ├──12:回归整体训练流程_详解读取数据blob_02_ev.mp431.64M
|   |   ├──13:回归整体训练流程_详解读取数据blob_03_ev.mp418.48M
|   |   ├──14:回归整体训练流程_详解读取数据blob_04_ev.mp427.24M
|   |   ├──15:FasterRCNN代码_构建head_ev.mp425.91M
|   |   ├──16:FasterRCNN代码_构建RPN网络_01_ev.mp449.33M
|   |   ├──17:FasterRCNN代码_构建RPN网络_02_ev.mp439.32M
|   |   ├──18:FasterRCNN代码_根据RPN网络得到校正后的预测的框_01_ev.mp437.69M
|   |   ├──19:FasterRCNN代码_根据RPN网络得到校正后的预测的框_02_ev.mp448.00M
|   |   ├──20:FasterRCNN代码_bbox剪裁_NMS非极大值抑制_ev.mp446.08M
|   |   ├──21:FasterRCNN代码_给RPN准备正负例样本_01_ev.mp440.86M
|   |   ├──22:FasterRCNN代码_给RPN准备正负例样本_02_ev.mp462.30M
|   |   ├──23:FasterRCNN代码_给RPN准备正负例样本_03_ev.mp422.05M
|   |   ├──24:FasterRCNN代码_给RPN准备正负例样本_04_ev.mp419.13M
|   |   ├──25:FasterRCNN代码_给RPN准备正负例样本_05_ev.mp429.94M
|   |   ├──26:FasterRCNN代码_给RPN准备正负例样本_06_ev.mp442.60M
|   |   ├──27:FasterRCNN代码_给RPN准备正负例样本_07_ev.mp437.95M
|   |   ├──28:FasterRCNN代码_给RPN准备正负例样本_08_ev.mp421.93M
|   |   ├──29:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_01_ev.mp426.51M
|   |   ├──30:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_02_ev.mp425.42M
|   |   ├──31:FasterRCNN代码_添加Loss损失_smoothL1loss_ev.mp426.83M
|   |   ├──6:FasterRCNN项目代码_环境说明_数据集详解_项目结构说明_ev.mp446.53M
|   |   ├──7:FasterRCNN项目代码_数据加载_ev.mp439.94M
|   |   ├──8:FasterRCNN项目代码_数据增强_ev.mp431.37M
|   |   ├──9:FasterRCNN项目代码_数据初始化_ev.mp430.31M
|   |   ├──Faster-RCNN-TensorFlow-Python3.5-master.rar3.06G
|   |   └──资料.rar26.61kb
|   └──章节3:图像风格迁移
|   |   ├──1.txt0.25kb
|   |   ├──32:图片风格融合项目_架构_代码实现要点_1_ev.mp430.54M
|   |   ├──33:图片风格融合项目_架构_代码实现要点_2_ev.mp435.38M
|   |   ├──34:图片风格融合项目_架构_代码实现要点_3_ev.mp434.81M
|   |   ├──35:图片风格融合项目_架构_代码实现要点_4_ev.mp437.08M
|   |   └──style_transfer.rar512.68M
├──16-深度学习-目标检测YOLO(V1-V4全版本)实战
|   ├──章节1:YOLOv1详解
|   |   ├──1:YOLOv1论文详解_算法特点介绍_ev.mp4143.16M
|   |   ├──2:YOLOv1论文详解_网络架构_思想_ev.mp4163.33M
|   |   ├──3:YOLOv1论文详解_训练中的技巧_Loss损失函数_ev.mp4192.72M
|   |   └──4:YOLOv1论文详解_NMS_局限性_ev.mp462.47M
|   ├──章节2:YOLOv2详解
|   |   ├──5:YOLOv2论文详解_BN_高分辨率_引入AnchorBoxes_ev.mp4138.74M
|   |   ├──6:YOLOv2论文详解_mAP更better的一些点_ev.mp4212.94M
|   |   ├──7:YOLOv2论文详解_Darknet19_分类数据和检测数据集融合_多标签_ev.mp4120.92M
|   |   └──8:YOLOv2论文详解_层级分类_层级分类用于目标检测_ev.mp4146.75M
|   ├──章节3:YOLOv3详解
|   |   ├──10:YOLOv3论文详解_引入了FPN的思想特征融合_多路输出_DarkNet53_ev.mp4109.35M
|   |   ├──11:YOLOv3论文详解_总结_FocalLoss_ev.mp4100.58M
|   |   ├──12:YOLOv4论文概述_介绍_ev.mp496.28M
|   |   ├──13:YOLOv4论文概述_BOS_BOF_ev.mp4253.06M
|   |   └──9:YOLOv3论文详解_每个框都要预测多个类别概率_ev.mp464.54M
|   ├──章节4:YOLOv3代码实战
|   |   ├──14:YOLOv3代码剖析_项目介绍_ev.mp495.01M
|   |   ├──15:YOLOv3代码剖析_聚类anchors_构建backbone主干网络_ev.mp4144.47M
|   |   ├──16:YOLOv3代码剖析_model输出之后的预测框的计算_ev.mp4138.41M
|   |   ├──17:YOLOv3代码剖析_使用model预测的其余代码_ev.mp454.57M
|   |   ├──18:YOLOv3代码剖析_weights到h5模型的转换_ev.mp483.70M
|   |   └──19:YOLOv3代码剖析_模型的训练部分详解_ev.mp4189.72M
|   ├──章节5:YOLOv4详解
|   |   ├──20:YOLOv4_BOF_DropBlock_FocalLoss_ev.mp4159.22M
|   |   ├──21:YOLOv4_BOF_GIoU_DIoU_CIoU_ev.mp472.25M
|   |   ├──22:YOLOv4_BOS_ASPP_SAM_SoftNMS_Mish_ev.mp4163.21M
|   |   └──23:YOLOv4_BOS_SAM_PAN_CSP_CmBN_ev.mp4174.03M
|   ├──keras-yolo3-master.rar443.97M
|   └──资料.rar25.37M
├──17-深度学习-语义分割原理和实战
|   ├──章节1:上采样_双线性插值_转置卷积
|   |   ├──1.txt0.29kb
|   |   ├──1:前言_ev.mp414.47M
|   |   ├──2:上采样_repeat_ev.mp416.98M
|   |   ├──3:线性插值_ev.mp423.87M
|   |   ├──4:双线性插值_ev.mp466.03M
|   |   ├──5:转置卷积_以及TF的API_ev.mp462.74M
|   |   ├──6:双线性插值作为转置卷积核的初始参数_ev.mp483.64M
|   |   ├──7:ROIAlign_ev.mp447.15M
|   |   ├──8:FPN思想与网络结构_ev.mp448.20M
|   |   ├──9:FPN应用于FasterRCNN_ResNetFPN_ev.mp4101.57M
|   |   ├──代码.rar3.31kb
|   |   └──资料.rar4.43M
|   ├──章节2:医疗图像UNet语义分割
|   |   ├──1.txt0.19kb
|   |   ├──10:语义分割的基本概念_ev.mp414.13M
|   |   ├──11:FCN全卷积网络做语义分割_ev.mp428.30M
|   |   ├──12:UNet网络结构_ev.mp417.90M
|   |   ├──13:UNet网络医疗图像的语义分割_ev.mp459.40M
|   |   ├──U-Net.zip102.75M
|   |   └──资料.rar3.41M
|   └──章节3:蒙版弹幕MaskRCNN语义分割
|   |   ├──1.txt0.35kb
|   |   ├──14:MaskRCNN网络结构_ev.mp454.01M
|   |   ├──15:MaskRCNN的项目展示_ev.mp4117.07M
|   |   ├──16:MaskRCNN网络架构回顾_ev.mp474.84M
|   |   ├──17:MaskRCNN根据文档和论文总结重要的知识点_ev.mp4191.29M
|   |   ├──18:MaskRCNN项目关于运行代码环境的说明_ev.mp434.35M
|   |   ├──19:MaskRCNN源码config和model_ev.mp4190.09M
|   |   ├──代码.rar798.38M
|   |   └──资料.rar6.77M
├──18-深度学习-人脸识别项目实战
|   ├──章节1:人脸识别
|   |   ├──10:人脸识别项目代码_加载MTCNN模型_ev.mp453.20M
|   |   ├──11:人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框_ev.mp448.88M
|   |   ├──12:FaceNet论文_摘要和前情介绍_ev.mp458.45M
|   |   ├──13:FaceNet论文_相关的介绍_ev.mp442.19M
|   |   ├──14:FaceNet论文_TripleLoss思路来源和目标_ev.mp448.45M
|   |   ├──15:FaceNet论文_TripleLoss损失函数_ev.mp453.82M
|   |   ├──16:FaceNet论文_TripleSelection很至关重要_ev.mp462.93M
|   |   ├──17:FaceNet论文_ZF和Inception对比_总结_ev.mp457.56M
|   |   ├──18:人脸识别项目代码_FaceNet模型加载和使用_ev.mp435.74M
|   |   ├──19:人脸识别项目代码_人脸匹配以及最后的绘图展示_ev.mp430.32M
|   |   ├──1:人脸识别任务种类_具体做法思路_ev.mp426.65M
|   |   ├──2:开源的FaceNet项目介绍_ev.mp429.12M
|   |   ├──3:人脸识别项目代码整体结构_ev.mp423.36M
|   |   ├──4:MTCNN论文_摘要和介绍_ev.mp462.24M
|   |   ├──5:MTCNN论文_网络整体架构_ev.mp466.92M
|   |   ├──6:PRelu_每阶段输出多分支意义_ev.mp435.08M
|   |   ├──7:每一个阶段每个分支的Loss损失_整合每个分支的Loss_ev.mp457.33M
|   |   ├──8:训练数据的准备_每一阶段训练的流程_ev.mp453.05M
|   |   └──9:总结MTCNN_缩放因子_注意3阶段网络里面的全连接_ev.mp451.73M
|   ├──1.txt0.50kb
|   ├──facenet-master.zip823.10M
|   ├──模型.rar186.42M
|   └──资料.rar7.47M
├──19-深度学习-NLP自然语言处理原理和进阶
|   ├──章节1:词向量与词嵌入
|   |   ├──1.txt0.31kb
|   |   ├──1:N-gram语言模型_ev.mp4100.90M
|   |   ├──2:NPLM神经网络语言模型_ev.mp491.13M
|   |   ├──3:词向量的作用_ev.mp436.29M
|   |   ├──4:CBOW模型思想和计算过程_ev.mp4100.15M
|   |   ├──5:Skip-gram模型思想和计算过程_ev.mp433.20M
|   |   ├──6:Huffman树_分层Softmax的思想_ev.mp466.23M
|   |   ├──7:分层Softmax应用到CBOW模型上_ev.mp451.31M
|   |   ├──8:负采样和负采样应用到CBOW模型上_ev.mp459.08M
|   |   ├──Word2Vec.pdf1.89M
|   |   └──资料.rar266.85kb
|   ├──章节2:循环神经网络原理与优化
|   |   ├──1.txt0.41kb
|   |   ├──10:理解RNN循环神经网络计算流程_ev.mp429.87M
|   |   ├──11:利用RNN循环神经网络对MNIST手写数字识别_ev.mp496.49M
|   |   ├──12:理解LSTM长短时记忆_记住Topo和公式_ev.mp4104.73M
|   |   ├──13:VanillaRNN的回顾复习_ev.mp472.40M
|   |   ├──14:补充讲一下为什么RNN中链越长越容易梯度消失_ev.mp427.92M
|   |   ├──15:LSTM的回顾复习_LSTM手写数字识别_ev.mp426.32M
|   |   ├──16:双向RNN_LSTM_ev.mp430.09M
|   |   ├──17:RNN里面应用的Topology结构_ev.mp415.64M
|   |   ├──9:理解RNN循环神经网络拓扑结构_ev.mp474.59M
|   |   ├──RNN_Attention机制.pdf2.83M
|   |   ├──代码.rar1.69kb
|   |   └──资料.rar1.59M
|   ├──章节3:从Attention机制到Transformer
|   |   ├──1.txt0.60kb
|   |   ├──18:Seq2Seq中Attention注意力机制_ev.mp439.99M
|   |   ├──19:Transformer_Self-Attention_Multi-head_ev.mp479.26M
|   |   ├──20:Transformer_Positional_使用逻辑_网络结构总结_ev.mp455.10M
|   |   ├──RNN_Attention机制.pdf5.16M
|   |   └──资料.rar792.99kb
|   └──章节4:ELMO_BERT_GPT
|   |   ├──1.txt0.60kb
|   |   ├──21:ELMO_ev.mp433.25M
|   |   ├──22:BERT理论_ev.mp452.58M
|   |   ├──23:ERNIE_GPT_ev.mp443.47M
|   |   └──RNN_Attention机制.pdf5.16M
├──20-深度学习-NLP自然语言处理项目实战
|   ├──章节1:词向量
|   |   ├──1:回顾了词向量里面训练的Topology_ev.mp491.34M
|   |   ├──2:Word2Vec项目代码_加载数据_构建字典_ev.mp475.49M
|   |   ├──3:Word2Vec项目代码_构建一个个批次数据_ev.mp465.40M
|   |   ├──4:Word2Vec项目代码_正向传播的Graph构建_NCE损失的计算本质_ev.mp480.94M
|   |   ├──5:Word2Vec项目代码_评估比较相似度_最后的训练绘图_ev.mp468.29M
|   |   ├──6:Word2Vec项目代码_总结串讲_ev.mp418.31M
|   |   └──word_2_vector.rar56.80M
|   ├──章节2:自然语言处理--情感分析
|   |   ├──10:代码讲解_01_ev.mp424.56M
|   |   ├──11:代码讲解_02_ev.mp427.78M
|   |   ├──12:代码讲解_03_ev.mp424.50M
|   |   ├──13:代码讲解_04_ev.mp426.34M
|   |   ├──14:代码讲解_05_ev.mp419.33M
|   |   ├──7:Keras实战RNN以及词嵌入来做情感分析_ev.mp428.82M
|   |   ├──8:数据预处理_01_ev.mp433.19M
|   |   ├──9:数据预处理_02_ev.mp424.32M
|   |   └──代码.rar4.64kb
|   ├──章节3:AI写唐诗
|   |   ├──15:AI写唐诗_数据的读取_字典的构建_文本的索引化_ev.mp489.26M
|   |   ├──16:AI写唐诗_训练数据的构建_ev.mp444.78M
|   |   ├──17:MultiRNNCell单元_ev.mp422.27M
|   |   ├──18:AI写唐诗_从词嵌入到构建RNN再到输出层概率输出_ev.mp452.61M
|   |   ├──19:AI写唐诗_损失的计算_梯度的求解截断和更新_最终的训练代码_ev.mp448.59M
|   |   ├──20:AI写唐诗_模型的使用_增加随机性_ev.mp472.51M
|   |   └──代码 .rar22.31M
|   ├──章节4:Seq2Seq聊天机器人
|   |   ├──21:从AI写唐诗到Seq2Seq再到Encoder-Decoder_ev.mp469.51M
|   |   ├──22:Seq2Seq版Chatbot的数据预处理_ev.mp475.20M
|   |   ├──23:Seq2Seq版Chatbot训练和模型使用_ev.mp469.86M
|   |   └──代码.rar37.30kb
|   ├──章节5:实战NER命名实体识别项目
|   |   ├──24:回顾了一下CRF训练和使用过程_ev.mp456.68M
|   |   ├──25:介绍了代码目录结构_ev.mp419.69M
|   |   ├──26:NER代码读取数据和预处理_ev.mp485.89M
|   |   ├──27:feature进入BiLSTM进行正向传播的过程_ev.mp468.89M
|   |   ├──28:通过CRF层来计算Loss损失以及训练_ev.mp466.03M
|   |   ├──29:BiLSTM-CRF模型的预测代码_ev.mp460.45M
|   |   ├──30:CRF中的特征函数们_ev.mp487.83M
|   |   ├──31:对比逻辑回归_相比HMM优势_ev.mp483.05M
|   |   ├──32:补充标注偏置问题_HMM做分词代码结构_ev.mp458.18M
|   |   └──代码.rar14.28M
|   ├──章节6:BERT新浪新闻10分类项目
|   |   ├──33:BERT新浪新闻10分类项目_ev.mp490.17M
|   |   └──bert.zip66.49M
|   └──章节7:GPT2聊天机器人
|   |   ├──34:GPT2闲聊机器人_ev.mp437.61M
|   |   ├──GPT2-Chinese-master.zip13.39M
|   |   └──gpt2_chatbot-master.zip86.58kb
├──21-深度学习-OCR文本识别
|   ├──章节1:深度学习-OCR文本识别
|   |   ├──10:CRNN项目代码剖析_ev.mp4127.07M
|   |   ├──1:传统OCR识别_深度学习OCR识别_ev.mp4130.34M
|   |   ├──2:OCR识别本质就是文字检测和文字识别_ev.mp480.13M
|   |   ├──3:OCR识别的CTC损失思想_ev.mp495.96M
|   |   ├──4:总结理解深度学习文字识别架构_ev.mp434.81M
|   |   ├──5:CTC损失函数的理解_ev.mp4130.26M
|   |   ├──6:CTC损失函数前向后向算法推导_梯度求导公式推导_ev.mp485.53M
|   |   ├──7:CTC前向后向算法代码_ev.mp486.60M
|   |   ├──8:GreedySearch和BeamSearch解码的方式与代码逻辑_ev.mp4116.48M
|   |   └──9:CPTN项目代码剖析_ev.mp4173.24M
|   └──资料.rar478.63kb
├──22-深度学习-语音识别【2021新增 未更新。。。持续更新】
|   └──官方未更新。。。持续更新
├──23-深度学习-知识图谱【2021新增 未更新。。。持续更新】
|   └──官方未更新。。。持续更新
├──24-【加课】Pytorch项目实战
|   ├──章节1:PyTorch运行环境安装_运行环境测试
|   |   ├──1:PyTorch概述_ev.mp426.67M
|   |   ├──2:PyTorch的安装_ev.mp445.81M
|   |   ├──3:Pycharm关联PyTorch运行环境_ev.mp424.03M
|   |   └──4:Jupyter关联PyTorch运行环境_ev.mp427.99M
|   ├──章节2:PyTorch基础_Tensor张量运算
|   |   ├──5:Tensor的创建_ev.mp442.45M
|   |   ├──6:修改Tensor的形状_索引操作_ev.mp456.59M
|   |   ├──7:广播机制_逐元素操作_ev.mp433.45M
|   |   └──8:归并操作_比较操作_矩阵操作_ev.mp444.67M
|   ├──章节3:PyTorch卷积神经网络_实战CIFAR10
|   |   ├──10:PyTorch实战CIFAR10_构建网络_打印网络层次_ev.mp438.92M
|   |   ├──11:PyTorch实战CIFAR10_训练模型_测试模型_ev.mp433.50M
|   |   ├──12:PyTorch实战CIFAR10_分类别打印模型准确率_ev.mp419.94M
|   |   ├──13:使用全局平均池化_使用LeNet模型_ev.mp426.73M
|   |   ├──14:使用集成学习思想训练识别模型_ev.mp453.92M
|   |   ├──15:使用VGG16模型提供准确率_ev.mp433.35M
|   |   ├──16:torchvision里面的预训练模型_ev.mp420.28M
|   |   ├──17:迁移学习_PyTorch代码实战冻结预训练模型参数_ev.mp438.81M
|   |   ├──18:PyTorch代码实战加入数据增强_ev.mp423.49M
|   |   └──9:PyTorch实战CIFAR10数据_读取和展示_ev.mp458.48M
|   ├──章节4:PyTorch循环神经网络_词性标注
|   |   ├──19:PyTorch词性标注_构建数据和词索引号_ev.mp416.72M
|   |   ├──20:PyTorch词性标注_构建词嵌入层LSTM层和词性输出层_ev.mp426.98M
|   |   ├──21:PyTorch词性标注_构建数据索引化和训练模型代码_ev.mp427.12M
|   |   └──22:PyTorch词性标注_测试模型效果_ev.mp47.78M
|   ├──章节5:PyTorch编码器解码器_机器翻译
|   |   ├──23:PyTorch中英文翻译_规范化语料库_构建中英文词典索引_ev.mp431.67M
|   |   ├──24:PyTorch中英文翻译_数据预处理_ev.mp424.46M
|   |   ├──25:PyTorch中英文翻译_索引化数据_转化成Tensor张量_构建Encoder编码器_ev.mp431.36M
|   |   ├──26:PyTorch中英文翻译_构建训练函数之Encoder计算_ev.mp432.85M
|   |   ├──27:PyTorch中英文翻译_构建带Attention注意力机制的Decoder解码器_ev.mp443.18M
|   |   ├──28:PyTorch中英文翻译_构建训练函数之Decoder计算_ev.mp438.50M
|   |   ├──29:PyTorch中英文翻译_评估模型函数_ev.mp434.22M
|   |   └──30:PyTorch中英文翻译_绘制Attentions注意力权重_ev.mp420.88M
|   ├──代码.rar307.66M
|   └──资料.rar1.77M
├──25、【加课】百度飞桨PaddlePaddle实战【新增】
|   ├──章节1:PaddlePaddle框架安装_波士顿房价预测
|   |   ├──代码
|   |   ├──数据
|   |   ├──1:安装PaddlePaddle_ev.mp436.77M
|   |   ├──2:Pycharm运行出现mkl-service或DLL找不到的问题_ev.mp428.19M
|   |   ├──3:PaddlePaddle求解线性模型_ev.mp435.67M
|   |   ├──4:预测波士顿房价_数据读取_正向传播_ev.mp438.00M
|   |   └──5:预测波士顿房价_反向传播_模型保存_模型测试_ev.mp429.68M
|   ├──章节2:PaddlePaddle卷积网络_病理性近视识别
|   |   ├──代码
|   |   ├──数据
|   |   ├──6:预测病理性近视_图片数据读取_ev.mp445.49M
|   |   ├──7:预测病理性近视_模型训练_ev.mp440.78M
|   |   ├──8:预测病理性近视_定义模型结构_评估模型_ev.mp440.92M
|   |   └──9:预测病理性近视_调用经典卷积神经网络_ev.mp466.29M
|   ├──章节3:PaddleDetection工具_PCB电路板缺陷检测
|   |   ├──代码
|   |   ├──数据
|   |   ├──10:PaddleDetection_项目配置_ev.mp442.14M
|   |   ├──11:安装配置VisualStudio_解决安装模块pycocotools或cython_bbox编译报错问题_ev.mp431.05M
|   |   ├──12:PCB电路板缺陷检测_Images和Annotations_ev.mp429.76M
|   |   ├──13:PCB电路板缺陷检测_前期数据的分析_ev.mp455.99M
|   |   ├──14:PCB电路板缺陷检测_项目配置文件_ev.mp427.18M
|   |   ├──15:PCB电路板缺陷检测_模型训练_ev.mp443.74M
|   |   └──16:PCB电路板缺陷检测_模型预测_ev.mp440.76M
|   ├──章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
|   |   ├──代码
|   |   ├──数据
|   |   ├──17:PaddleOCR_项目配置_CCPD数据集介绍_ev.mp447.40M
|   |   ├──18:车牌识别项目_详解数据准备阶段代码_ev.mp428.73M
|   |   ├──19:车牌识别项目_运行保存标签和剪切出的车牌图片_ev.mp437.23M
|   |   ├──20:车牌识别项目_车牌目标框检测模型训练_ev.mp444.20M
|   |   ├──21:车牌识别项目_车牌字符识别模型训练_ev.mp445.18M
|   |   └──22:车牌识别项目_车牌识别模型导出及预测_ev.mp454.75M
|   ├──章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)
|   |   ├──代码
|   |   ├──数据
|   |   ├──23:PaddleNLP_项目配置_ev.mp430.94M
|   |   ├──24:PaddleNLP_物流信息提取项目介绍_ev.mp432.51M
|   |   ├──25:物流信息提取项目_解决导包显示找不到nul问题_ev.mp442.22M
|   |   ├──26:PaddleNLP_物流信息提取项目_加载数据构建DataSet_ev.mp438.36M
|   |   ├──27:PaddleNLP_物流信息提取项目_进一步通过DataSet构建出DataLoader_ev.mp437.31M
|   |   ├──28:PaddleNLP_物流信息提取项目_构建网络模型_ev.mp432.75M
|   |   ├──29:PaddleNLP_物流信息提取项目_模型训练_ev.mp435.53M
|   |   └──30:PaddleNLP_物流信息提取项目_合并结果并展示_使用预训练的词向量提升效果_ev.mp452.25M
|   └──章节6:PaddleNLP模块_物流信息提取(ERNIE版)
|   |   ├──代码
|   |   ├──数据
|   |   ├──31:PaddleNLP_物流信息提取项目_ERNIE实战_加载数据集构建Dataset_ev.mp434.05M
|   |   ├──32:PaddleNLP_物流信息提取项目_ERNIE实战_详解Tokenizer作用_ev.mp439.05M
|   |   ├──33:PaddleNLP_物流信息提取项目_ERNIE实战_讲解模型训练和评估代码_ev.mp434.16M
|   |   └──34:PaddleNLP_物流信息提取项目_ERNIE实战_讲解ChunkEvaluator和输出预测结果_ev.mp437.51M
├──26-【加课】Linux环境编程基础
|   ├──章节1:Linux
|   |   ├──10:Linux_常用命令_clear、touch、cat命令_ev.mp46.87M
|   |   ├──11:Linux_常用命令more、head、tail命令_ev.mp411.70M
|   |   ├──12:Linux_常用命令_mkdir命令_ev.mp47.43M
|   |   ├──13:Linux_常用命令_cp命令_ev.mp410.70M
|   |   ├──14:Linux_常用命令_rm、mv命令_ev.mp419.97M
|   |   ├──15:Linux_常用命令_vi、vim_ev.mp422.86M
|   |   ├──16:Linux_常用命令_reboot、halt_ev.mp44.00M
|   |   ├──17:Linux_常用配置_设置时区_ev.mp418.87M
|   |   ├──18:Linux_常用配置_启动网络_ev.mp411.22M
|   |   ├──19:Linux_常用配置_修改网段_ev.mp48.25M
|   |   ├──1:Linux_课程介绍_ev.mp42.93M
|   |   ├──20:Linux_常用配置_设置网络类型_ev.mp418.89M
|   |   ├──21:Linux_常用配置_快照与克隆_ev.mp410.70M
|   |   ├──22:Linux_Xshell的安装与使用_ev.mp414.02M
|   |   ├──23:Linux_上传与下载_Xftp的使用_ev.mp412.71M
|   |   ├──24:Linux_上传与下载_lrzsz工具_ev.mp429.88M
|   |   ├──25:Linux_文件的压缩与解压缩处理_ev.mp428.41M
|   |   ├──26:Linux_安装MySQL_ev.mp450.87M
|   |   ├──2:Linux_Linux简介_ev.mp413.00M
|   |   ├──3:Linux_VMWare安装及使用_ev.mp413.59M
|   |   ├──4:Linux_安装Linux_ev.mp425.92M
|   |   ├──5:Linux_目录介绍_ev.mp413.24M
|   |   ├──6:Linux_Linux中的路径_ev.mp413.00M
|   |   ├──7:Linux_常用命令_pwd命令_ev.mp44.74M
|   |   ├──8:Linux_常用命令_cd命令_ev.mp46.05M
|   |   └──9:Linux_常用命令_ls与ll命令_ev.mp422.63M
|   ├──软件.rar2.18G
|   ├──软件2.rar6.33G
|   └──文档.rar2.78M
├──27-【加课】算法与数据结构
|   ├──章节1:算法与数据结构
|   |   ├──10:哈希表的基本结构_ev.mp426.05M
|   |   ├──11:哈希表冲突问题_ev.mp436.72M
|   |   ├──12:哈希表冲突问题2_ev.mp429.16M
|   |   ├──13:哈希扩容_ev.mp442.00M
|   |   ├──14:递归与栈_ev.mp423.20M
|   |   ├──15:线性查找_ev.mp427.16M
|   |   ├──16:二分查找_ev.mp425.22M
|   |   ├──17:冒泡排序_ev.mp426.39M
|   |   ├──18:选择排序_ev.mp422.71M
|   |   ├──19:插入排序_ev.mp415.87M
|   |   ├──1:数据结构与算法简介_ev.mp417.12M
|   |   ├──20:归并排序_ev.mp440.51M
|   |   ├──21:快速排序_ev.mp418.97M
|   |   ├──22:树结构_ev.mp442.81M
|   |   ├──23:树结构的遍历_ev.mp427.72M
|   |   ├──24:最大堆的增加操作_ev.mp436.15M
|   |   ├──25:最大堆的删除操作_ev.mp435.13M
|   |   ├──26:二叉树的查找_ev.mp441.76M
|   |   ├──27:二叉树获取最小值_ev.mp411.16M
|   |   ├──28:二叉树的添加_ev.mp430.56M
|   |   ├──29:二叉树的删除_ev.mp455.15M
|   |   ├──2:大O表示法_ev.mp411.28M
|   |   ├──3:线性结构_ev.mp424.15M
|   |   ├──4:单线链表1_ev.mp427.68M
|   |   ├──5:单链表2_ev.mp458.44M
|   |   ├──6:双链表_ev.mp446.43M
|   |   ├──7:队列(链式)_ev.mp433.77M
|   |   ├──8:队列(线式)_ev.mp417.69M
|   |   └──9:栈与双端队列_ev.mp413.03M
|   └──资料.zip4.80M
├──29-【加课】计算机图形学机器视觉实战【2021新增 未更新。。。持续更新】
|   └──官方未更新。。。持续更新
├──30-【加课】 ROS智能机器人操作系统【2021新增 未更新。。。持续更新】
|   └──未更新。。。持续更新
├──31、【加课】 强化学习【新增】
|   ├──章节1:Q-Learning与SARSA算法
|   |   ├──代码
|   |   ├──资料
|   |   ├──10:代码实战Q-Learning智能体训练模型_ev.mp435.49M
|   |   ├──11:代码实战Sarsa_Agent和Env整体交互_ev.mp426.78M
|   |   ├──12:代码实战Sarsa_Agent选择行为和训练模型_ev.mp437.68M
|   |   ├──13:代码实战SarsaLambda_训练模型_ev.mp436.83M
|   |   ├──1:强化学习通过智能体与环境交互进行学习_ev.mp444.67M
|   |   ├──2:引入马尔科夫链和价值评估的Q值与V值_ev.mp435.03M
|   |   ├──3:详解Q值和V值以及它们之间关系_ev.mp448.04M
|   |   ├──4:蒙特卡洛采样回溯计算V值_ev.mp441.14M
|   |   ├──5:蒙特卡洛和时序差分估算状态V值_ev.mp444.02M
|   |   ├──6:SARSA算法和Q-learning算法_ev.mp439.56M
|   |   ├──7:理解Q-table_创建maze交互环境_ev.mp440.23M
|   |   ├──8:代码实战Q-Learning_Agent和Env整体交互_ev.mp430.03M
|   |   └──9:代码实战Q-Learning智能体选择行为_ev.mp433.94M
|   ├──章节2:Deep Q-Learning Network
|   |   ├──代码
|   |   ├──14:DQN算法思想_ev.mp435.24M
|   |   ├──15:DQN算法具体流程_ev.mp431.71M
|   |   ├──16:ε-greedy_ReplayBuffer_FixedQ-targets_ev.mp454.99M
|   |   ├──17:代码实战DQN_Agent和Env整体交互_ev.mp446.11M
|   |   ├──18:代码实战DQN_构建Q网络_ev.mp441.08M
|   |   ├──19:代码实战DQN_定义损失函数_构建Target网络更新逻辑_ev.mp450.96M
|   |   ├──20:代码实战DQN_训练阶段得到Q网络的预测值和真实值_ev.mp447.86M
|   |   ├──21:代码实战DQN_训练阶段最小化损失_记录loss方便展示_随着learn的越多选择action随机性减小_ev.mp452.26M
|   |   ├──22:DQN会over-estimate的本质原因_ev.mp440.26M
|   |   ├──23:DoubleDQN缓解over-estimate_ev.mp439.29M
|   |   ├──24:DoubleDQN代码实战_ev.mp439.68M
|   |   ├──25:DuelingDQN_ev.mp447.48M
|   |   ├──26:困难样本挖掘_Multi-step_NoiseyNet系统的探索_ev.mp449.05M
|   |   ├──27:计算Action的方差避免风险_ev.mp428.80M
|   |   └──28:Rainbow_DQN如何计算连续型的Actions_ev.mp434.36M
|   ├──章节3:Policy Gradient 策略梯度
|   |   ├──代码
|   |   ├──29:策略梯度PG_对比基于值和基于策略网络的区别_ev.mp436.10M
|   |   ├──30:策略梯度PG_明确目标函数和导函数_ev.mp433.85M
|   |   ├──31:策略梯度PG_简化导函数的公式推导_ev.mp433.34M
|   |   ├──32:策略梯度PG_总结整体流程_对比交叉熵损失函数求导_ev.mp430.01M
|   |   ├──33:策略梯度PG_讲解CartPole环境_ev.mp431.95M
|   |   ├──34:代码实战_策略梯度PG和CartPole交互_ev.mp444.45M
|   |   ├──35:代码实战_策略梯度PG网络构建_ev.mp428.63M
|   |   ├──36:代码实战_策略梯度PG选择行为和参数训练_ev.mp432.87M
|   |   ├──37:策略梯度PG_对TotalReward进行均值归一化_ev.mp429.71M
|   |   └──38:策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战_ev.mp430.66M
|   ├──章节4:Actor Critic (A3C)
|   |   ├──代码
|   |   ├──39:ActorCritic原理_把PG和QLearning结合起来_ev.mp450.02M
|   |   ├──40:AdvantageActorCritic_共享参数和修改reward技巧_ev.mp444.69M
|   |   ├──41:代码实战_ActorCritic与环境交互_ev.mp448.29M
|   |   ├──42:代码实战_Actor网络构建及训练_ev.mp433.46M
|   |   ├──43:代码实战_详解Critic网络构建及训练_ev.mp450.74M
|   |   ├──44:A3C架构和训练流程_ev.mp437.52M
|   |   ├──45:Pendulum环境_根据网络预测的μ和σ得到连续型的action值_ev.mp444.49M
|   |   ├──46:代码实战_A3C_讲解Coordinator调度多线程运算_ev.mp427.84M
|   |   ├──47:代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性_ev.mp432.62M
|   |   ├──48:代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑_ev.mp432.10M
|   |   ├──49:代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑_ev.mp435.52M
|   |   ├──50:代码实战_A3C_结合流程图分三点总结前面讲的代码_ev.mp435.80M
|   |   ├──51:代码实战_A3C_讲解线程中worker和环境交互_ev.mp445.16M
|   |   └──52:代码实战_A3C_讲解线程中worker和GlobalNet交互_代码运行效果展示_ev.mp441.57M
|   └──章节5:DDPG、PPO、DPPO算法
|   |   ├──代码
|   |   ├──53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic_ev.mp443.40M
|   |   ├──54:代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑_ev.mp445.45M
|   |   ├──55:代码实战_DDPG_Critic网络构建_Actor网络链式求导_ev.mp450.11M
|   |   ├──56:代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示_ev.mp438.76M
|   |   ├──57:TD3_使用DoubleNetwork优化DDPG_ev.mp457.07M
|   |   ├──58:PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy_ev.mp434.69M
|   |   ├──59:PPO_通过重要性采样使得PPO可以做Off-Policy学习_ev.mp432.08M
|   |   ├──60:PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题_ev.mp434.49M
|   |   ├──61:PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题_ev.mp432.50M
|   |   ├──62:代码实战_PPO与环境整体交互_Actor与Critic网络构建_ev.mp428.52M
|   |   ├──63:代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑_ev.mp436.15M
|   |   ├──64:代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示_ev.mp434.44M
|   |   ├──65:DPPO分布式PPO_ev.mp436.43M
|   |   ├──66:代码实战_DPPO_创建一个PPO和多个Worker_创建多线程_ev.mp433.08M
|   |   └──67:代码实战_DPPO_GlobalPPO和Workers交替执行_ev.mp448.49M
├──32-【加课】 图神经网络【2021新增 未更新。。。持续更新】
|   └──未更新。。。持续更新
├──【加课】Linux环境编程基础
|   └──章节1:Linux
|   |   ├──10:Linux_常用命令_clear、touch、cat命令_ev.mp46.89M
|   |   ├──11:Linux_常用命令more、head、tail命令_ev.mp411.70M
|   |   ├──14:Linux_常用命令_rm、mv命令_ev.mp419.93M
|   |   ├──15:Linux_常用命令_vi、vim_ev.mp422.76M
|   |   ├──16:Linux_常用命令_reboot、halt_ev.mp44.00M
|   |   ├──18:Linux_常用配置_启动网络_ev.mp411.23M
|   |   ├──1:Linux_课程介绍_ev.mp42.92M
|   |   ├──20:Linux_常用配置_设置网络类型_ev.mp418.98M
|   |   ├──25:Linux_文件的压缩与解压缩处理_ev.mp428.49M
|   |   ├──26:Linux_安装MySQL_ev.mp450.60M
|   |   ├──3:Linux_VMWare安装及使用_ev.mp413.50M
|   |   ├──5:Linux_目录介绍_ev.mp413.21M
|   |   └──8:Linux_常用命令_cd命令_ev.mp46.00M
└──【加课】算法与数据结构
|   └──章节1:算法与数据结构
|   |   ├──10:哈希表的基本结构_ev.mp426.13M
|   |   ├──11:哈希表冲突问题_ev.mp436.27M
|   |   ├──12:哈希表冲突问题2_ev.mp429.22M
|   |   ├──13:哈希扩容_ev.mp441.81M
|   |   ├──14:递归与栈_ev.mp423.30M
|   |   ├──16:二分查找_ev.mp425.38M
|   |   ├──17:冒泡排序_ev.mp426.31M
|   |   ├──18:选择排序_ev.mp422.56M
|   |   ├──19:插入排序_ev.mp415.88M
|   |   ├──1:数据结构与算法简介_ev.mp417.10M
|   |   ├──20:归并排序_ev.mp440.45M
|   |   ├──21:快速排序_ev.mp419.04M
|   |   ├──22:树结构_ev.mp442.63M
|   |   ├──23:树结构的遍历_ev.mp427.49M
|   |   ├──24:最大堆的增加操作_ev.mp435.82M
|   |   ├──26:二叉树的查找_ev.mp441.35M
|   |   ├──27:二叉树获取最小值_ev.mp411.17M
|   |   ├──28:二叉树的添加_ev.mp430.58M
|   |   ├──29:二叉树的删除_ev.mp454.96M
|   |   ├──2:大O表示法_ev.mp411.34M
|   |   ├──3:线性结构_ev.mp424.14M
|   |   ├──4:单线链表1_ev.mp427.60M
|   |   ├──5:单链表2_ev.mp458.34M
|   |   ├──6:双链表_ev.mp446.56M
|   |   ├──7:队列(链式)_ev.mp433.40M
|   |   ├──8:队列(线式)_ev.mp417.80M
|   |   └──9:栈与双端队列_ev.mp413.03M

**** Hidden Message *****

timeseries 发表于 2022-8-6 09:56

感恩无私的分享与奉献 :)

ligxi 发表于 2022-8-6 09:56

强烈支持楼主ing……

ailove 发表于 2022-8-6 10:02

真是被感动的痛哭流涕……

mlmans 发表于 2022-8-6 10:02

感恩无私的分享与奉献 :)

penginfo 发表于 2022-8-6 10:03

淡定,淡定,淡定……

bertfans 发表于 2022-8-6 10:03

真是被感动的痛哭流涕……

watry1000 发表于 2022-8-6 10:05

:curse:

chuixue 发表于 2022-8-6 10:08

强烈支持楼主ing……

snnaenu 发表于 2022-8-6 10:11

楼主加油,我们都看好你哦。
页: [1] 2 3 4 5 6 7 8 9 10
查看完整版本: 百战程序员AI算法工程师就业班2022