milk931103 发表于 2024-8-22 08:00

RK0088-【百Z】人工智能AI深度学习就业班


——/【百Z】人工智能AI深度学习就业班/
├──0-资料密码:MTcrr18oGVEnPXmy
|   └──这是密码,返回从1看视频课
├──1-人工智能基础-快速入门
|   ├──1:人工智能就业前景与薪资.mp433.79M
|   ├──2:人工智能适合人群与必备技能.mp421.05M
|   ├──3:人工智能时代.mp416.73M
|   ├──4:人工智能在各领域的应用.mp441.84M
|   ├──5:人工智能常见流程.mp436.39M
|   ├──6:机器学习不同的学习方式.mp431.24M
|   ├──7:深度学习比传统机器学习有优势.mp433.53M
|   ├──8:有监督机器学习任务与本质.mp423.26M
|   └──9:无监督机器学习任务与本质.mp431.15M
├──10-机器学习与大数据-Kaggle竞赛实战
|   ├──章节1:药店销量预测案例
|   |   ├──1:Rossmann药店销量预测_kaggle的介绍.mp412.99M
|   |   ├──2:对数据字段的介绍_导包.mp48.64M
|   |   ├──3:自定义损失函数.mp49.45M
|   |   ├──4:对数据里面的目标变量sales的一个分析.mp416.92M
|   |   ├──5:数据的预处理.mp444.18M
|   |   ├──6:模型的训练_评估.mp423.63M
|   |   ├──7:kaggle竞赛网站学习.mp453.21M
|   |   ├──代码.rar6.42M
|   |   └──新建文本文档.txt0.38kb
|   └──章节2:网页分类案例
|   |   ├──10:评估指标ROC和AUC.mp420.71M
|   |   ├──11:竞赛其他相关提交成绩排行榜.mp420.00M
|   |   ├──12:数据导入.mp423.64M
|   |   ├──13:MLlib对网页分类竞赛数据预处理.mp438.73M
|   |   ├──14:MLlib对网页分类竞赛数据预处理_模型训练.mp428.05M
|   |   ├──15:MLlib对网页分类竞赛模型训练_模型训练评估_搜索最佳超参数.mp425.54M
|   |   ├──16:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_01.mp437.66M
|   |   ├──17:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_02.mp436.03M
|   |   ├──18:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_03.mp428.98M
|   |   ├──19:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_04.mp430.52M
|   |   ├──8:Kaggle网页分类竞赛介绍.mp411.18M
|   |   ├──9:评估指标ROC和AUC.mp422.36M
|   |   └──代码.rar8.81M
├──11-机器学习与大数据-海量数据挖掘工具
|   ├──章节1:Spark计算框架基础
|   |   ├──10:分布式计算所需进程.mp415.59M
|   |   ├──11:两种算子操作本质区别.mp426.09M
|   |   ├──12:Spark算子操作实战讲解_代码实战WordCount_01.mp431.68M
|   |   ├──13:Spark算子操作实战讲解_代码实战WordCount_02.mp425.91M
|   |   ├──14:Spark算子操作实战讲解_代码实战WordCount_03.mp420.20M
|   |   ├──15:Spark算子操作实战讲解_代码实战WordCount_04.mp417.87M
|   |   ├──1:Spark特性_01.mp425.09M
|   |   ├──2:Spark特性_02.mp417.41M
|   |   ├──3:Spark对比hadoop优势.mp412.39M
|   |   ├──4:回顾hadoop讲解shuffle.mp419.98M
|   |   ├──5:分布式计算框架Shuffle的原理_01.mp425.52M
|   |   ├──6:分布式计算框架Shuffle的原理_02.mp425.75M
|   |   ├──7:分布式计算框架Shuffle的原理_03.mp417.40M
|   |   ├──8:Spark的RDD特性_01.mp419.36M
|   |   ├──9:Spark的RDD特性_02.mp421.88M
|   |   ├──代码.rar383.20M
|   |   └──资料.rar1.49M
|   ├──章节2:Spark计算框架深入
|   |   ├──1.txt0.37kb
|   |   ├──16:Spark数据缓存机制.mp429.18M
|   |   ├──17:Spark宽依赖和窄依赖_01.mp424.87M
|   |   ├──18:Spark宽依赖和窄依赖_02.mp422.53M
|   |   ├──19:Spark宽依赖和窄依赖_03.mp415.82M
|   |   ├──20:Spark术语总结.mp440.15M
|   |   ├──21:分布式文件系统Block块的大小配置.mp444.19M
|   |   ├──22:Spark程序启动运行流程详解_01.mp419.60M
|   |   ├──23:Spark程序启动运行流程详解_02.mp428.62M
|   |   ├──24:Spark程序启动运行流程详解_03.mp419.89M
|   |   ├──25:讲解构建稀疏和稠密向量_01.mp433.94M
|   |   ├──26:讲解构建稀疏和稠密向量_01.mp436.25M
|   |   ├──27:构建LabeledPoint.mp444.28M
|   |   └──28:介绍SparkMLlib模块中实现的算法和调用.mp435.00M
|   └──章节3:Spark机器学习MLlib和ML模块
|   |   ├──29:SparkMLlib对于逻辑回归算法的调用.mp449.31M
|   |   ├──30:SparkMLlib调用逻辑回归_自定义阈值_1.mp452.45M
|   |   ├──31:SparkMLlib调用逻辑回归_自定义阈值_2.mp447.12M
|   |   ├──32:SparkMLlib调用逻辑回归_使用标准归一化_1.mp438.65M
|   |   ├──33:SparkMLlib调用逻辑回归_使用标准归一化_2.mp465.63M
|   |   ├──34:SparkMLlib调用逻辑回归_使用标准归一化_3.mp433.16M
|   |   ├──35:SparkMLlib调用逻辑回归_使用标准归一化_4.mp443.62M
|   |   ├──36:SparkMLlib调用KMeans聚类_调用决策树(1)_1.mp437.81M
|   |   ├──37:SparkMLlib调用KMeans聚类_调用决策树(1)_2.mp447.16M
|   |   ├──38:SparkMLlib调用KMeans聚类_调用决策树(1)_3.mp440.96M
|   |   ├──39:使用逻辑回归和随机森林对股票Stock预测案例实战_1.mp443.44M
|   |   ├──40:使用逻辑回归和随机森林对股票Stock预测案例实战_2.mp434.89M
|   |   ├──41:使用逻辑回归和随机森林对股票Stock预测案例实战_3.mp434.73M
|   |   ├──42:从数据转化到训练集的构建.mp463.44M
|   |   ├──43:模型的训练以及评估和调超参_1.mp435.14M
|   |   ├──44:模型的训练以及评估和调超参_2.mp432.22M
|   |   ├──45:模型的训练以及评估和调超参_3.mp443.17M
|   |   ├──46:SparkML机器学习库概念讲解_1.mp459.66M
|   |   ├──47:SparkML机器学习库概念讲解_2.mp453.67M
|   |   ├──48:SparkML机器学习库代码实战讲解_1.mp461.18M
|   |   ├──49:SparkML机器学习库代码实战讲解_2.mp463.53M
|   |   ├──50:SparkML网页分类案例代码实战续(1)_1.mp462.91M
|   |   ├──51:SparkML网页分类案例代码实战续(1)_2.mp460.76M
|   |   ├──52:SparkML网页分类案例代码实战续(2)_1.mp457.54M
|   |   ├──53:SparkML网页分类案例代码实战续(2)_2.mp444.98M
|   |   ├──54:SparkML网页分类案例代码实战续(3).mp44.00M
|   |   └──资料.rar1.28M
├──12-机器学习与大数据-推荐系统项目实战
|   ├──章节1:推荐系统--流程与架构
|   |   ├──10:推荐系统列表_关联特征权重_基本特征权重的计算_2.mp443.65M
|   |   ├──11:推荐系统列表_关联特征权重_基本特征权重的计算_3.mp441.93M
|   |   ├──12:推荐系统_数据源_1.mp433.88M
|   |   ├──13:推荐系统_数据源_2.mp431.32M
|   |   ├──1:推荐系统_隐式用户反馈_1.mp444.97M
|   |   ├──2:推荐系统_隐式用户反馈_2.mp449.07M
|   |   ├──3:推荐系统_协同过滤_1.mp429.27M
|   |   ├──4:推荐系统_协同过滤_2.mp428.45M
|   |   ├──5:推荐系统_协同过滤_3.mp428.66M
|   |   ├──6:推荐系统_协同过滤_4.mp429.77M
|   |   ├──7:推荐系统架构_实时_离线_1.mp441.82M
|   |   ├──8:推荐系统架构_实时_离线_2.mp441.81M
|   |   ├──9:推荐系统列表_关联特征权重_基本特征权重的计算_1.mp437.60M
|   |   ├──数据.rar759.94kb
|   |   └──资料.rar2.67M
|   ├──章节2:推荐系统--数据预处理和模型构建评估实战
|   |   ├──14:HQL语句_python脚本构建中间结果_1.mp448.92M
|   |   ├──15:HQL语句_python脚本构建中间结果_2.mp446.80M
|   |   ├──16:HQL语句_python脚本构建中间结果_3.mp444.00M
|   |   ├──17:HQL语句_python脚本构建中间结果_4.mp447.20M
|   |   ├──18:推荐系统_数据预处理_spark构建特征索引_标签列_1.mp443.81M
|   |   ├──19:spark构建特征索引_标签列_2.mp443.33M
|   |   ├──20:spark构建特征索引_标签列_3.mp442.33M
|   |   ├──21:spark构建特征索引_标签列_4.mp439.91M
|   |   ├──22:MLlib调用算法计算模型文件并存储_1.mp440.22M
|   |   ├──23:MLlib调用算法计算模型文件并存储_2.mp437.79M
|   |   ├──24:MLlib调用算法计算模型文件并存储_3.mp443.56M
|   |   ├──25:ACC准确率和AUC面积的计算以及意义.mp493.25M
|   |   ├──代码.rar6.12kb
|   |   ├──软件.rar665.46M
|   |   ├──数据.rar2.90M
|   |   └──资料.rar468.42kb
|   └──章节3:推荐系统--模型使用和推荐服务
|   |   ├──26:推荐模型文件使用思路.mp425.83M
|   |   ├──27:Redis数据库安装及其使用.mp416.63M
|   |   ├──28:实时在线推荐列表计算逻辑代码讲解_1.mp450.64M
|   |   ├──29:实时在线推荐列表计算逻辑代码讲解_2.mp440.19M
|   |   ├──30:实时在线推荐列表计算逻辑代码讲解_3.mp436.76M
|   |   ├──31:实时在线推荐列表计算逻辑代码讲解_4.mp436.52M
|   |   ├──32:使用Dubbo将推荐系统做成服务_1.mp441.32M
|   |   ├──33:使用Dubbo将推荐系统做成服务_2.mp441.42M
|   |   ├──34:使用Dubbo将推荐系统做成服务_3.mp445.76M
|   |   ├──35:Dubbo推荐服务演示_SparkMLlib介绍_1(1).mp439.28M
|   |   ├──35:Dubbo推荐服务演示_SparkMLlib介绍_1.mp451.31M
|   |   ├──36:Dubbo推荐服务演示_SparkMLlib介绍_2.mp447.93M
|   |   ├──37:Dubbo推荐服务演示_SparkMLlib介绍_3.mp450.73M
|   |   └──代码.rar42.15M
├──13-深度学习-原理和进阶
|   ├──章节1:神经网络算法
|   |   ├──1:神经网络是有监督的算法_生物神经元到人工神经元.mp463.31M
|   |   ├──2:三种常见的激活函数_网络拓扑介绍_优化算法.mp433.56M
|   |   ├──3:单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类.mp445.45M
|   |   ├──4:用神经网络理解Softmax回归.mp444.39M
|   |   ├──5:隐藏层的意义_隐藏层相当于去做预处理_升维降维.mp469.12M
|   |   ├──6:多节点网络输出_sklearn中NN模块的介绍.mp453.04M
|   |   ├──7:sklearn中NN模型的代码使用.mp469.29M
|   |   ├──8:隐藏层激活函数必须是非线性的.mp413.71M
|   |   ├──9:tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装.mp4132.14M
|   |   ├──神经网络.pdf518.13kb
|   |   └──资料.rar12.88M
|   ├──章节2:TensorFlow深度学习工具
|   |   ├──10:CUDA下载地址_CUDA显卡白名单地址.mp457.92M
|   |   ├──11:CUDA安装_cudnn安装_环境变量配置_检验是否安装成功.mp460.73M
|   |   ├──12:Tensorflow代码运行机制_TF基础的代码.mp498.18M
|   |   ├──13:TF实现线性回归解析解的方式_TF实现线性回归梯度下降的方式.mp4106.24M
|   |   ├──14:TF实现线性回归BGD的方式_使用Optimizer_每轮打乱数据.mp4130.45M
|   |   ├──15:TF实现Softmax回归来识别MNIST手写数字.mp4108.50M
|   |   ├──16:TF实现DNN来识别MNIST手写数字.mp4104.49M
|   |   ├──代码.rar27.29kb
|   |   └──软件.rar2.13G
|   └──章节3:反向传播推导_Python代码实现神经网络
|   |   ├──1.txt0.31kb
|   |   ├──17:反向传播_链式求导法则.mp456.14M
|   |   ├──18:反向传播推导(一).mp491.09M
|   |   ├──19:反向传播推导(二)从输出层到最后一个隐藏层.mp478.83M
|   |   ├──20:反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例.mp465.09M
|   |   ├──21:反向传播推导(四)关于Δ和a还有梯度的更新事宜.mp425.08M
|   |   ├──22:python实现神经网络训练代码讲解(一).mp450.80M
|   |   ├──23:python实现神经网络正向反向传播训练.mp465.03M
|   |   ├──代码.rar2.83kb
|   |   └──资料.rar180.60kb
├──14-深度学习-图像识别原理
|   ├──章节1:卷积神经网络原理.zip473.80M
|   ├──章节2:卷积神经网络优化.zip673.57M
|   ├──章节3:经典卷积网络算法.zip839.61M
|   ├──章节4:古典目标检测.zip359.94M
|   └──章节5:现代目标检测之FasterRCNN.zip780.53M
├──15-深度学习-图像识别项目实战
|   ├──章节1:车牌识别
|   |   ├──1:基于CascadeClassifier来提取目标框做车牌识别代码详解_01.mp431.80M
|   |   ├──2:基于CascadeClassifier来提取目标框做车牌识别代码详解_02.mp433.65M
|   |   ├──3:基于CascadeClassifier来提取目标框做车牌识别代码详解_03.mp418.47M
|   |   ├──4:基于CascadeClassifier来提取目标框做车牌识别代码详解_04.mp428.09M
|   |   ├──5:车牌识别项目关于目标检测的问题.mp417.45M
|   |   └──car_license.rar177.04M
|   ├──章节2:自然场景下的目标检测及源码分析
|   |   ├──10:FasterRCNN项目代码_模型的训练.mp417.63M
|   |   ├──11:回归整体训练流程_详解读取数据blob_01.mp433.05M
|   |   ├──12:回归整体训练流程_详解读取数据blob_02.mp431.65M
|   |   ├──13:回归整体训练流程_详解读取数据blob_03.mp418.49M
|   |   ├──14:回归整体训练流程_详解读取数据blob_04.mp427.25M
|   |   ├──15:FasterRCNN代码_构建head.mp425.92M
|   |   ├──16:FasterRCNN代码_构建RPN网络_01.mp449.35M
|   |   ├──17:FasterRCNN代码_构建RPN网络_02.mp439.33M
|   |   ├──18:FasterRCNN代码_根据RPN网络得到校正后的预测的框_01.mp437.70M
|   |   ├──19:FasterRCNN代码_根据RPN网络得到校正后的预测的框_02.mp448.02M
|   |   ├──20:FasterRCNN代码_bbox剪裁_NMS非极大值抑制.mp446.10M
|   |   ├──21:FasterRCNN代码_给RPN准备正负例样本_01.mp440.87M
|   |   ├──22:FasterRCNN代码_给RPN准备正负例样本_02.mp462.31M
|   |   ├──23:FasterRCNN代码_给RPN准备正负例样本_03.mp422.06M
|   |   ├──24:FasterRCNN代码_给RPN准备正负例样本_04.mp419.14M
|   |   ├──25:FasterRCNN代码_给RPN准备正负例样本_05.mp429.95M
|   |   ├──26:FasterRCNN代码_给RPN准备正负例样本_06.mp442.62M
|   |   ├──28:FasterRCNN代码_给RPN准备正负例样本_08.mp421.94M
|   |   ├──29:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_01.mp426.53M
|   |   ├──30:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_02.mp425.43M
|   |   ├──31:FasterRCNN代码_添加Loss损失_smoothL1loss.mp426.85M
|   |   ├──4:双线性插值.mp437.96M
|   |   ├──6:FasterRCNN项目代码_环境说明_数据集详解_项目结构说明.mp446.54M
|   |   ├──7:FasterRCNN项目代码_数据加载.mp439.95M
|   |   ├──8:FasterRCNN项目代码_数据增强.mp431.38M
|   |   ├──9:FasterRCNN项目代码_数据初始化.mp430.32M
|   |   ├──Faster-RCNN-TensorFlow-Python3.5-master.rar3.06G
|   |   └──资料.rar26.61kb
|   └──章节3:图像风格迁移
|   |   ├──1.txt0.25kb
|   |   ├──32:图片风格融合项目_架构_代码实现要点_1.mp430.55M
|   |   ├──33:图片风格融合项目_架构_代码实现要点_2.mp435.40M
|   |   ├──34:图片风格融合项目_架构_代码实现要点_3.mp434.83M
|   |   ├──35:图片风格融合项目_架构_代码实现要点_4.mp437.10M
|   |   └──style_transfer.rar512.68M
├──16-深度学习-目标检测YOLO(V1-V4全版本)实战
|   ├──章节1:YOLOv1详解
|   |   ├──1:YOLOv1论文详解_算法特点介绍.mp4143.17M
|   |   ├──2:YOLOv1论文详解_网络架构_思想.mp4163.34M
|   |   ├──3:YOLOv1论文详解_训练中的技巧_Loss损失函数.mp4192.73M
|   |   └──4:YOLOv1论文详解_NMS_局限性.mp462.48M
|   ├──章节2:YOLOv2详解
|   |   ├──5:YOLOv2论文详解_BN_高分辨率_引入AnchorBoxes.mp4138.75M
|   |   ├──6:YOLOv2论文详解_mAP更better的一些点.mp4212.96M
|   |   ├──7:YOLOv2论文详解_Darknet19_分类数据和检测数据集融合_多标签.mp4120.93M
|   |   └──8:YOLOv2论文详解_层级分类_层级分类用于目标检测.mp4146.76M
|   ├──章节3:YOLOv3详解
|   |   ├──10:YOLOv3论文详解_引入了FPN的思想特征融合_多路输出_DarkNet53.mp4109.36M
|   |   ├──11:YOLOv3论文详解_总结_FocalLoss.mp4100.60M
|   |   ├──12:YOLOv4论文概述_介绍.mp496.29M
|   |   ├──13:YOLOv4论文概述_BOS_BOF.mp4253.07M
|   |   └──9:YOLOv3论文详解_每个框都要预测多个类别概率.mp464.56M
|   ├──章节4:YOLOv3代码实战
|   |   ├──14:YOLOv3代码剖析_项目介绍.mp495.03M
|   |   ├──15:YOLOv3代码剖析_聚类anchors_构建backbone主干网络.mp4144.48M
|   |   ├──16:YOLOv3代码剖析_model输出之后的预测框的计算.mp4138.42M
|   |   ├──17:YOLOv3代码剖析_使用model预测的其余代码.mp454.58M
|   |   ├──18:YOLOv3代码剖析_weights到h5模型的转换.mp483.71M
|   |   └──19:YOLOv3代码剖析_模型的训练部分详解.mp4189.73M
|   ├──章节5:YOLOv4详解
|   |   ├──20:YOLOv4_BOF_DropBlock_FocalLoss.mp4159.23M
|   |   ├──21:YOLOv4_BOF_GIoU_DIoU_CIoU.mp472.27M
|   |   ├──22:YOLOv4_BOS_ASPP_SAM_SoftNMS_Mish.mp4163.22M
|   |   └──23:YOLOv4_BOS_SAM_PAN_CSP_CmBN.mp4174.04M
|   ├──keras-yolo3-master.rar443.97M
|   └──资料.rar25.37M
├──17-深度学习-语义分割原理和实战
|   ├──章节1:上采样_双线性插值_转置卷积
|   |   ├──1:前言.mp414.48M
|   |   ├──2:上采样_repeat.mp416.99M
|   |   ├──3:线性插值.mp423.88M
|   |   ├──4:双线性插值.mp466.04M
|   |   ├──5:转置卷积_以及TF的API.mp462.75M
|   |   ├──6:双线性插值作为转置卷积核的初始参数.mp483.66M
|   |   ├──7:ROIAlign.mp447.17M
|   |   ├──8:FPN思想与网络结构.mp448.21M
|   |   ├──9:FPN应用于FasterRCNN_ResNetFPN.mp4101.58M
|   |   ├──代码.rar3.31kb
|   |   └──资料.rar4.43M
|   ├──章节2:医疗图像UNet语义分割
|   |   ├──10:语义分割的基本概念.mp414.14M
|   |   ├──11:FCN全卷积网络做语义分割.mp428.31M
|   |   ├──12:UNet网络结构.mp417.91M
|   |   ├──13:UNet网络医疗图像的语义分割.mp459.42M
|   |   ├──U-Net.zip102.75M
|   |   └──资料.rar3.41M
|   └──章节3:蒙版弹幕MaskRCNN语义分割
|   |   ├──14:MaskRCNN网络结构.mp454.02M
|   |   ├──15:MaskRCNN的项目展示.mp4117.08M
|   |   ├──16:MaskRCNN网络架构回顾.mp474.85M
|   |   ├──17:MaskRCNN根据文档和论文总结重要的知识点.mp4191.30M
|   |   ├──18:MaskRCNN项目关于运行代码环境的说明.mp434.37M
|   |   ├──19:MaskRCNN源码config和model.mp4190.10M
|   |   ├──代码.rar798.38M
|   |   └──资料.rar6.77M
├──18-深度学习-人脸识别项目实战
|   ├──章节1:人脸识别
|   |   ├──10:人脸识别项目代码_加载MTCNN模型.mp453.21M
|   |   ├──11:人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框.mp448.89M
|   |   ├──12:FaceNet论文_摘要和前情介绍.mp458.47M
|   |   ├──13:FaceNet论文_相关的介绍.mp442.20M
|   |   ├──14:FaceNet论文_TripleLoss思路来源和目标.mp448.46M
|   |   ├──15:FaceNet论文_TripleLoss损失函数.mp453.84M
|   |   ├──16:FaceNet论文_TripleSelection很至关重要.mp462.95M
|   |   ├──16:FaceNet论文_TripleSelection很至关重要.pdf5.16M
|   |   ├──17:FaceNet论文_ZF和Inception对比_总结.mp457.57M
|   |   ├──18:人脸识别项目代码_FaceNet模型加载和使用.mp435.75M
|   |   ├──19:人脸识别项目代码_人脸匹配以及最后的绘图展示.mp430.33M
|   |   ├──1:人脸识别任务种类_具体做法思路.mp426.67M
|   |   ├──2:开源的FaceNet项目介绍.mp429.13M
|   |   ├──3:人脸识别项目代码整体结构.mp423.37M
|   |   ├──4:MTCNN论文_摘要和介绍.mp462.25M
|   |   ├──5:MTCNN论文_网络整体架构.mp466.94M
|   |   ├──6:PRelu_每阶段输出多分支意义.mp435.09M
|   |   ├──7:每一个阶段每个分支的Loss损失_整合每个分支的Loss.mp457.34M
|   |   ├──8:训练数据的准备_每一阶段训练的流程.mp453.06M
|   |   └──9:总结MTCNN_缩放因子_注意3阶段网络里面的全连接.mp451.74M
|   ├──facenet-master.zip823.10M
|   ├──模型.rar186.42M
|   └──资料.rar7.47M
├──19-深度学习-NLP自然语言处理原理和进阶
|   ├──章节1:词向量与词嵌入
|   |   ├──1:N-gram语言模型.mp4100.91M
|   |   ├──2:NPLM神经网络语言模型.mp491.15M
|   |   ├──3:词向量的作用.mp436.30M
|   |   ├──4:CBOW模型思想和计算过程.mp4100.16M
|   |   ├──5:Skip-gram模型思想和计算过程.mp433.22M
|   |   ├──6:Huffman树_分层Softmax的思想.mp466.25M
|   |   ├──7:分层Softmax应用到CBOW模型上.mp451.32M
|   |   ├──8:负采样和负采样应用到CBOW模型上.mp459.10M
|   |   ├──Word2Vec.pdf1.89M
|   |   └──资料.rar266.85kb
|   ├──章节2:循环神经网络原理与优化
|   |   ├──10:理解RNN循环神经网络计算流程.mp429.89M
|   |   ├──11:利用RNN循环神经网络对MNIST手写数字识别.mp496.50M
|   |   ├──12:理解LSTM长短时记忆_记住Topo和公式.mp4104.74M
|   |   ├──13:VanillaRNN的回顾复习.mp472.42M
|   |   ├──14:补充讲一下为什么RNN中链越长越容易梯度消失.mp427.93M
|   |   ├──15:LSTM的回顾复习_LSTM手写数字识别.mp426.34M
|   |   ├──16:双向RNN_LSTM.mp430.10M
|   |   ├──17:RNN里面应用的Topology结构.mp415.66M
|   |   ├──9:理解RNN循环神经网络拓扑结构.mp474.60M
|   |   ├──RNN_Attention机制.pdf2.83M
|   |   ├──代码.rar1.69kb
|   |   └──资料.rar1.59M
|   ├──章节3:从Attention机制到Transformer
|   |   ├──18:Seq2Seq中Attention注意力机制.mp440.01M
|   |   ├──19:Transformer_Self-Attention_Multi-head.mp479.27M
|   |   ├──20:Transformer_Positional_使用逻辑_网络结构总结.mp455.11M
|   |   └──资料.rar792.99kb
|   └──章节4:ELMO_BERT_GPT
|   |   ├──21:ELMO.mp433.26M
|   |   ├──22:BERT理论.mp452.59M
|   |   ├──23:ERNIE_GPT.mp443.48M
|   |   └──RNN_Attention机制.pdf5.16M
├──2-人工智能基础-Python基础
|   ├──章节1:Python开发环境搭建
|   |   ├──1:下载Miniconda运行环境.mp431.43M
|   |   ├──2:Miniconda安装和测试.mp436.65M
|   |   ├──3:Pycharm安装和代码运行.mp430.30M
|   |   ├──4:Jupyter安装和代码运行.mp424.93M
|   |   ├──5:Jupyter常用快捷键.mp420.74M
|   |   ├──6:Conda虚拟环境创建与Python模块安装.mp447.67M
|   |   ├──7:关联虚拟环境运行代码.mp426.33M
|   |   ├──代码.rar509.90kb
|   |   ├──人工智能-第1阶段Python基础.pdf9.37M
|   |   └──人工智能-第1阶段python进阶和高级编程.pdf7.52M
|   └──章节2:Python基础语法
|   |   ├──10:Python_控制语句_多分支_三元条件运算符.mp421.40M
|   |   ├──11:Python_控制语句_while循环.mp416.33M
|   |   ├──12:Python_控制语句_for循环.mp418.69M
|   |   ├──13:Python_控制语句_嵌套循环.mp427.88M
|   |   ├──14:Python_控制语句_break_continue.mp416.40M
|   |   ├──15:Python_切片操作.mp430.53M
|   |   ├──16:Python_数据类型.mp420.89M
|   |   ├──17:Python_集合操作_列表.mp424.12M
|   |   ├──18:Python_集合操作_列表的基本操作.mp435.14M
|   |   ├──19:Python_集合操作_列表的常用方法.mp426.63M
|   |   ├──20:Python_集合操作_元组.mp429.10M
|   |   ├──21:Python_集合操作_字典和常见操作.mp425.78M
|   |   ├──22:Python_集合操作_字典keys方法_enumerate函数.mp418.08M
|   |   ├──23:Python_os模块_shutil模块.mp436.76M
|   |   ├──24:Python_打开并读取文件_中文编码问题.mp438.73M
|   |   ├──25:Python_函数_定义_调用_返回值_注释.mp418.24M
|   |   ├──26:Python_函数_局部变量_全局变量.mp423.51M
|   |   ├──27:Python_函数_默认参数_可变参数.mp418.08M
|   |   ├──28:Python_函数_递归.mp418.21M
|   |   ├──29:Python_函数式编程_高阶函数.mp417.72M
|   |   ├──30:Python_函数式编程_map_reduce_filter_匿名函数.mp426.95M
|   |   ├──31:Python_函数_闭包.mp427.50M
|   |   ├──32:Python_函数_装饰器.mp419.35M
|   |   ├──33:Python_类对象_定义与实例化对象.mp436.97M
|   |   ├──34:Python_类对象_实例属性和方法_类属性和方法.mp426.22M
|   |   ├──35:Python_类对象_内置方法.mp419.41M
|   |   ├──36:Python_类对象_运算符重载_私有对象方法_isinstance函数.mp426.23M
|   |   ├──37:Python_类对象_面向对象三大特性_类的继承.mp420.16M
|   |   ├──38:Python_类对象_子类复用父类构造器和方法_方法重写.mp420.80M
|   |   ├──8:Python是强类型的动态脚本语言.mp427.24M
|   |   └──新建文本文档.txt0.51kb
├──20-深度学习-NLP自然语言处理项目实战
|   ├──章节1:词向量.zip438.10M
|   ├──章节2:自然语言处理--情感分析.zip195.51M
|   ├──章节3:AI写唐诗.zip335.02M
|   ├──章节4:Seq2Seq聊天机器人.zip204.42M
|   ├──章节5:实战NER命名实体识别项目.zip576.16M
|   ├──章节6:BERT新浪新闻10分类项目.zip153.66M
|   └──章节7:GPT2聊天机器人.zip49.97M
├──21-深度学习-OCR文本识别
|   ├──章节1:深度学习-OCR文本识别
|   |   ├──10:CRNN项目代码剖析.mp4127.09M
|   |   ├──1:传统OCR识别_深度学习OCR识别.mp4130.35M
|   |   ├──2:OCR识别本质就是文字检测和文字识别.mp480.14M
|   |   ├──3:OCR识别的CTC损失思想.mp495.97M
|   |   ├──4:总结理解深度学习文字识别架构.mp434.82M
|   |   ├──5:CTC损失函数的理解.mp4130.28M
|   |   ├──6:CTC损失函数前向后向算法推导_梯度求导公式推导.mp485.55M
|   |   ├──7:CTC前向后向算法代码.mp486.61M
|   |   ├──8:GreedySearch和BeamSearch解码的方式与代码逻辑.mp4116.50M
|   |   └──9:CPTN项目代码剖析.mp4173.25M
|   └──资料.rar478.63kb
├──22-【加课】Pytorch项目实战
|   ├──章节1:PyTorch运行环境安装_运行环境测试
|   |   ├──1:PyTorch概述.mp426.68M
|   |   ├──2:PyTorch的安装.mp445.82M
|   |   ├──3:Pycharm关联PyTorch运行环境.mp424.05M
|   |   └──4:Jupyter关联PyTorch运行环境.mp428.00M
|   ├──章节2:PyTorch基础_Tensor张量运算
|   |   ├──5:Tensor的创建.mp442.46M
|   |   ├──6:修改Tensor的形状_索引操作.mp456.60M
|   |   ├──7:广播机制_逐元素操作.mp433.46M
|   |   └──8:归并操作_比较操作_矩阵操作.mp444.69M
|   ├──章节3:PyTorch卷积神经网络_实战CIFAR10
|   |   ├──10:PyTorch实战CIFAR10_构建网络_打印网络层次.mp438.93M
|   |   ├──11:PyTorch实战CIFAR10_训练模型_测试模型.mp433.52M
|   |   ├──12:PyTorch实战CIFAR10_分类别打印模型准确率.mp419.96M
|   |   ├──13:使用全局平均池化_使用LeNet模型.mp426.75M
|   |   ├──14:使用集成学习思想训练识别模型.mp453.93M
|   |   ├──15:使用VGG16模型提供准确率.mp433.36M
|   |   ├──16:torchvision里面的预训练模型.mp420.29M
|   |   ├──17:迁移学习_PyTorch代码实战冻结预训练模型参数.mp438.83M
|   |   ├──18:PyTorch代码实战加入数据增强.mp423.51M
|   |   └──9:PyTorch实战CIFAR10数据_读取和展示.mp458.50M
|   ├──章节4:PyTorch循环神经网络_词性标注
|   |   ├──19:PyTorch词性标注_构建数据和词索引号.mp416.73M
|   |   ├──20:PyTorch词性标注_构建词嵌入层LSTM层和词性输出层.mp426.99M
|   |   ├──21:PyTorch词性标注_构建数据索引化和训练模型代码.mp427.13M
|   |   └──22:PyTorch词性标注_测试模型效果.mp47.79M
|   ├──章节5:PyTorch编码器解码器_机器翻译
|   |   ├──23:PyTorch中英文翻译_规范化语料库_构建中英文词典索引.mp431.68M
|   |   ├──24:PyTorch中英文翻译_数据预处理.mp424.47M
|   |   ├──25:PyTorch中英文翻译_索引化数据_转化成Tensor张量_构建Encoder编码器.mp431.38M
|   |   ├──26:PyTorch中英文翻译_构建训练函数之Encoder计算.mp432.86M
|   |   ├──27:PyTorch中英文翻译_构建带Attention注意力机制的Decoder解码器.mp443.19M
|   |   ├──28:PyTorch中英文翻译_构建训练函数之Decoder计算.mp438.51M
|   |   ├──29:PyTorch中英文翻译_评估模型函数.mp434.24M
|   |   └──30:PyTorch中英文翻译_绘制Attentions注意力权重.mp420.90M
|   ├──代码.rar307.66M
|   └──资料.rar1.77M
├──23-【加课】百度飞桨PaddlePaddle实战【新增】
|   ├──章节1:PaddlePaddle框架安装_波士顿房价预测
|   |   ├──代码
|   |   ├──数据
|   |   ├──1:安装PaddlePaddle.mp436.78M
|   |   ├──2:Pycharm运行出现mkl-service或DLL找不到的问题.mp428.20M
|   |   ├──3:PaddlePaddle求解线性模型.mp435.69M
|   |   ├──4:预测波士顿房价_数据读取_正向传播.mp438.02M
|   |   └──5:预测波士顿房价_反向传播_模型保存_模型测试.mp429.69M
|   ├──章节2:PaddlePaddle卷积网络_病理性近视识别
|   |   ├──代码
|   |   ├──数据
|   |   ├──6:预测病理性近视_图片数据读取.mp445.51M
|   |   ├──7:预测病理性近视_模型训练.mp440.79M
|   |   ├──8:预测病理性近视_定义模型结构_评估模型.mp440.94M
|   |   └──9:预测病理性近视_调用经典卷积神经网络.mp466.30M
|   ├──章节3:PaddleDetection工具_PCB电路板缺陷检测
|   |   ├──代码
|   |   ├──数据
|   |   ├──10:PaddleDetection_项目配置.mp442.15M
|   |   ├──11:安装配置VisualStudio_解决安装模块pycocotools或cython_bbox编译报错问题.mp431.06M
|   |   ├──12:PCB电路板缺陷检测_Images和Annotations.mp429.78M
|   |   ├──13:PCB电路板缺陷检测_前期数据的分析.mp456.00M
|   |   ├──14:PCB电路板缺陷检测_项目配置文件.mp427.19M
|   |   ├──15:PCB电路板缺陷检测_模型训练.mp443.75M
|   |   └──16:PCB电路板缺陷检测_模型预测.mp440.77M
|   ├──章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
|   |   ├──代码
|   |   ├──数据
|   |   ├──17:PaddleOCR_项目配置_CCPD数据集介绍.mp447.41M
|   |   ├──18:车牌识别项目_详解数据准备阶段代码.mp428.74M
|   |   ├──19:车牌识别项目_运行保存标签和剪切出的车牌图片.mp437.24M
|   |   ├──20:车牌识别项目_车牌目标框检测模型训练.mp444.22M
|   |   ├──21:车牌识别项目_车牌字符识别模型训练.mp445.20M
|   |   └──22:车牌识别项目_车牌识别模型导出及预测.mp454.76M
|   ├──章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)
|   |   ├──代码
|   |   ├──数据
|   |   ├──23:PaddleNLP_项目配置.mp430.95M
|   |   ├──24:PaddleNLP_物流信息提取项目介绍.mp432.52M
|   |   ├──25:物流信息提取项目_解决导包显示找不到nul问题.mp442.24M
|   |   ├──26:PaddleNLP_物流信息提取项目_加载数据构建DataSet.mp438.37M
|   |   ├──27:PaddleNLP_物流信息提取项目_进一步通过DataSet构建出DataLoader.mp437.33M
|   |   ├──28:PaddleNLP_物流信息提取项目_构建网络模型.mp432.77M
|   |   ├──29:PaddleNLP_物流信息提取项目_模型训练.mp435.54M
|   |   └──30:PaddleNLP_物流信息提取项目_合并结果并展示_使用预训练的词向量提升效果.mp452.26M
|   └──章节6:PaddleNLP模块_物流信息提取(ERNIE版)
|   |   ├──代码
|   |   ├──数据
|   |   ├──31:PaddleNLP_物流信息提取项目_ERNIE实战_加载数据集构建Dataset.mp434.07M
|   |   ├──32:PaddleNLP_物流信息提取项目_ERNIE实战_详解Tokenizer作用.mp439.06M
|   |   ├──33:PaddleNLP_物流信息提取项目_ERNIE实战_讲解模型训练和评估代码.mp434.17M
|   |   └──34:PaddleNLP_物流信息提取项目_ERNIE实战_讲解ChunkEvaluator和输出预测结果.mp437.52M
├──24-【加课】Linux环境编程基础
|   ├──章节1:Linux
|   |   ├──10:Linux_常用命令_clear-touch-cat命令.mp46.89M
|   |   ├──11:Linux_常用命令more-head-tail命令.mp411.72M
|   |   ├──12:Linux_常用命令_mkdir命令.mp47.45M
|   |   ├──13:Linux_常用命令_cp命令.mp410.71M
|   |   ├──14:Linux_常用命令_rm-mv命令.mp419.99M
|   |   ├──15:Linux_常用命令_vi-vim.mp422.87M
|   |   ├──16:Linux_常用命令_reboot-halt.mp44.01M
|   |   ├──17:Linux_常用配置_设置时区.mp418.89M
|   |   ├──18:Linux_常用配置_启动网络.mp411.23M
|   |   ├──19:Linux_常用配置_修改网段.mp48.26M
|   |   ├──1:Linux_课程介绍.mp42.94M
|   |   ├──20:Linux_常用配置_设置网络类型.mp418.91M
|   |   ├──21:Linux_常用配置_快照与克隆.mp410.71M
|   |   ├──22:Linux_Xshell的安装与使用.mp414.04M
|   |   ├──23:Linux_上传与下载_Xftp的使用.mp412.72M
|   |   ├──24:Linux_上传与下载_lrzsz工具.mp429.89M
|   |   ├──25:Linux_文件的压缩与解压缩处理.mp428.42M
|   |   ├──26:Linux_安装MySQL.mp450.88M
|   |   ├──2:Linux_Linux简介.mp413.02M
|   |   ├──3:Linux_VMWare安装及使用.mp413.61M
|   |   ├──4:Linux_安装Linux.mp425.93M
|   |   ├──5:Linux_目录介绍.mp413.26M
|   |   ├──6:Linux_Linux中的路径.mp413.01M
|   |   ├──7:Linux_常用命令_pwd命令.mp44.75M
|   |   ├──8:Linux_常用命令_cd命令.mp46.06M
|   |   └──9:Linux_常用命令_ls与ll命令.mp422.64M
|   ├──软件.rar2.18G
|   └──文档.rar2.78M
├──25-【加课】算法与数据结构
|   ├──章节1:算法与数据结构
|   |   ├──10:哈希表的基本结构.mp426.07M
|   |   ├──11:哈希表冲突问题.mp436.73M
|   |   ├──12:哈希表冲突问题2.mp429.17M
|   |   ├──13:哈希扩容.mp442.01M
|   |   ├──14:递归与栈.mp423.21M
|   |   ├──15:线性查找.mp427.18M
|   |   ├──16:二分查找.mp425.23M
|   |   ├──17:冒泡排序.mp426.40M
|   |   ├──18:选择排序.mp422.72M
|   |   ├──19:插入排序.mp415.88M
|   |   ├──1:数据结构与算法简介.mp417.14M
|   |   ├──20:归并排序.mp440.52M
|   |   ├──21:快速排序.mp418.98M
|   |   ├──22:树结构.mp442.82M
|   |   ├──23:树结构的遍历.mp427.73M
|   |   ├──24:最大堆的增加操作.mp436.17M
|   |   ├──25:最大堆的删除操作.mp435.15M
|   |   ├──26:二叉树的查找.mp441.78M
|   |   ├──27:二叉树获取最小值.mp411.17M
|   |   ├──28:二叉树的添加.mp430.58M
|   |   ├──29:二叉树的删除.mp455.16M
|   |   ├──2:大O表示法.mp411.30M
|   |   ├──3:线性结构.mp424.16M
|   |   ├──4:单线链表1.mp427.69M
|   |   ├──5:单链表2.mp458.45M
|   |   ├──6:双链表.mp446.44M
|   |   ├──7:队列(链式).mp433.78M
|   |   ├──8:队列(线式).mp417.70M
|   |   └──9:栈与双端队列.mp413.04M
|   └──资料.zip4.80M
├──3-人工智能基础-Python科学计算和可视化
|   ├──章节1:科学计算模型Numpy
|   |   ├──1:Numpy_概述_安装_创建数组_获取shape形状.mp430.31M
|   |   ├──2:Numpy_array_arange.mp423.58M
|   |   ├──3:Numpy_random随机数生成.mp435.82M
|   |   ├──4:Numpy_ndarray属性_zeros_ones_like等创建数组函数.mp432.61M
|   |   ├──5:NumPy_reshape_切片操作_copy函数.mp422.72M
|   |   ├──6:Numpy_改变数组维度_数组的拼接.mp430.41M
|   |   ├──7:Numpy_数组的切分和转置.mp419.20M
|   |   ├──8:Numpy_算术运算_向上向下取整.mp423.04M
|   |   ├──9:Numpy_聚合函数.mp415.34M
|   |   └──新建文本文档.txt0.36kb
|   ├──章节2:数据可视化模块
|   |   ├──10:Matplotlib_概述_绘制直线图.mp428.66M
|   |   ├──11:Matplotlib_绘制正余弦曲线_散点图_添加图例.mp423.70M
|   |   ├──12:Matplotlib_绘制柱状图_画布切分多个子画布_柱状图对比.mp434.99M
|   |   ├──13:Matplotlib_绘制饼图_直方图_同时绘制多组数据分布.mp421.30M
|   |   ├──14:Matplotlib_绘制等高线图_绘制三维图像.mp424.38M
|   |   ├──1599293649514137.png18.62kb
|   |   ├──人工智能-第1阶段数据分析(含办公自动化分析).pdf6.04M
|   |   └──新建文本文档.txt0.16kb
|   └──章节3:数据处理分析模块Pandas
|   |   ├──15:Python_Pandas_Series对象创建.mp422.97M
|   |   ├──16:Python_Pandas_DataFrame对象创建.mp424.83M
|   |   ├──17:Python_Pandas_获取Series对象的值.mp415.53M
|   |   ├──18:Python_Pandas_获取DataFrame对象的值.mp418.86M
|   |   ├──19:Python_Pandas_条件过滤.mp417.29M
|   |   ├──20:Python_Pandas_空值的删除与填充.mp433.26M
|   |   ├──21:Python_Pandas_拼接和合并.mp427.92M
|   |   └──新建文本文档.txt0.37kb
├──4-人工智能基础-高等数学知识强化
|   ├──10:高阶导数_导数判断单调性_导数与极值.mp415.31M
|   ├──11:导数判断凹凸性_导数用于泰勒展开.mp431.51M
|   ├──12:向量的意义_n维欧式空间空间.mp415.36M
|   ├──13:行向量列向量_转置_数乘_加减乘除.mp414.18M
|   ├──14:向量的内积_向量运算法则.mp414.39M
|   ├──15:学习向量计算的用途举例.mp416.85M
|   ├──16:向量的范数_范数与正则项的关系.mp423.53M
|   ├──17:特殊的向量.mp419.39M
|   ├──18:矩阵_方阵_对称阵_单位阵_对角阵.mp413.48M
|   ├──19:矩阵的运算_加减法_转置.mp417.36M
|   ├──1:人工智能学习数学的必要性_微积分知识点.mp418.98M
|   ├──20:矩阵相乘.mp414.37M
|   ├──21:矩阵的逆矩阵.mp427.59M
|   ├──22:矩阵的行列式.mp414.62M
|   ├──23:多元函数求偏导.mp416.35M
|   ├──24:高阶偏导数_梯度.mp419.75M
|   ├──25:雅可比矩阵_在神经网络中应用.mp426.05M
|   ├──26:Hessian矩阵.mp422.56M
|   ├──27:二次型.mp418.56M
|   ├──28:补充关于正定负定的理解.mp413.08M
|   ├──29:特征值和特征向量(1).mp419.46M
|   ├──2:线性代数_概率论知识点.mp417.27M
|   ├──30:特征值和特征向量(2).mp418.02M
|   ├──31:特征值分解.mp426.19M
|   ├──32:多元函数的泰勒展开_矩阵和向量的求导.mp430.51M
|   ├──33:奇异值分解定义.mp416.39M
|   ├──34:求解奇异值分解中的UΣV矩阵.mp434.06M
|   ├──35:奇异值分解性质_数据压缩.mp423.37M
|   ├──36:SVD用于PCA降维.mp417.59M
|   ├──37:SVD用于协同过滤_求逆矩阵.mp423.78M
|   ├──38:概率论_随机事件与随机事件概率.mp414.05M
|   ├──39:条件概率_贝叶斯公式.mp421.98M
|   ├──3:最优化知识_数学内容学习重点.mp425.92M
|   ├──40:随机变量.mp417.18M
|   ├──41:数学期望和方差.mp416.19M
|   ├──42:常用随机变量服从的分布.mp414.65M
|   ├──43:随机向量_独立性_协方差_随机向量的正太分布.mp422.96M
|   ├──44:最大似然估计思想.mp416.64M
|   ├──45:最优化的基本概念.mp423.97M
|   ├──46:迭代求解的原因.mp413.00M
|   ├──47:梯度下降法思路.mp419.43M
|   ├──48:梯度下降法的推导.mp431.40M
|   ├──49:牛顿法公式推导以及优缺点.mp430.05M
|   ├──4:导数的定义_左导数和右导数.mp420.12M
|   ├──50:坐标下降法_数值优化面临的问题.mp417.07M
|   ├──51:凸集.mp414.04M
|   ├──52:凸函数.mp412.36M
|   ├──53:凸优化的性质_一般表达形式.mp414.83M
|   ├──54:拉格朗日函数.mp419.75M
|   ├──5:导数的几何意义和物理意义.mp410.23M
|   ├──6:常见函数的求导公式.mp415.81M
|   ├──7:导数求解的四则运算法则.mp418.97M
|   ├──8:复合函数求导法则.mp411.80M
|   ├──9:推导激活函数的导函数.mp423.55M
|   └──数学.pdf1.50M
├──5-机器学习-线性回归
|   ├──章节1:多元线性回归.rar1.12G
|   ├──章节2:梯度下降法.rar260.99M
|   ├──章节3:归一化.rar85.03M
|   ├──章节4:正则化.rar106.94M
|   └──章节5:Lasso回归_Ridge回归_多项式回归.rar204.99M
├──6-机器学习-线性分类
|   ├──章节1:逻辑回归
|   |   ├──1.txt1.29kb
|   |   ├──10:绘制逻辑回归损失函数_探索两个参数和损失函数变换关系.mp417.82M
|   |   ├──11:绘制逻辑回归损失函数_绘制3D的图形_分析X1X2两个维度的重要度.mp416.91M
|   |   ├──12:对逻辑回归函数进行求导_结论在后面会用到.mp411.27M
|   |   ├──13:对逻辑回归的损失函数求导_推导出导函数的形式.mp421.29M
|   |   ├──14:实战逻辑回归对鸢尾花数据集进行二分类.mp417.80M
|   |   ├──15:OneVsRest将多分类问题转化成多个二分类问题.mp412.11M
|   |   ├──16:实战逻辑回归对鸢尾花数据集进行多分类.mp418.21M
|   |   ├──1:逻辑回归_Sigmoid函数.mp410.77M
|   |   ├──2:sigmoid函数作用.mp421.38M
|   |   ├──3:逻辑回归为什么用sigmoid函数_预备知识.mp418.67M
|   |   ├──4:证明伯努利分布是指数族分布_推导出逻辑回归公式.mp423.52M
|   |   ├──5:回想多元线性回归公式其实也是从广义线性回归推导出来的.mp44.32M
|   |   ├──6:推导逻辑回归损失函数_得到总似然的公式.mp415.44M
|   |   ├──7:推导逻辑回归损失函数_得到最终形式.mp47.86M
|   |   ├──8:绘制逻辑回归损失函数_读入数据计算最优解模型_实现逻辑回归预测_实现逻辑回归损失函数.mp425.04M
|   |   ├──9:绘制逻辑回归损失函数_探索单个参数和损失的关系.mp414.09M
|   |   ├──代码.rar1.77kb
|   |   └──第五阶段_线性分类算法_逻辑回归和Softmax回归.pdf1.09M
|   ├──章节2:Softmax回归
|   |   ├──1.txt0.80kb
|   |   ├──17:证明多项式分布属于指数族分布一种.mp414.69M
|   |   ├──18:从广义线性回归的η推导出来Softmax的公式.mp49.93M
|   |   ├──19:有了Softmax函数的公式就可以去计算loss_Softmax的Loss函数形式其实就是LR的泛化版本.mp416.56M
|   |   ├──20:再次证明Softmax损失函数当K=2时就是逻辑回归损失函数.mp415.22M
|   |   ├──21:证明Softmax公式K=2的时候就是逻辑回归_平移不变性.mp47.59M
|   |   ├──22:逻辑回归和Softmax回归在多分类任务模型参数上的区别_与算法在选择上的区别.mp421.46M
|   |   ├──23:实战音乐分类器_讲解需求和读取数据.mp414.08M
|   |   ├──24:实战音乐分类器_探索不同曲风音乐文件的时间频率图.mp420.22M
|   |   ├──25:实战音乐分类器_傅里叶变换可以帮助我们做什么.mp412.89M
|   |   ├──26:实战音乐分类器_代码使用傅里叶变换将混音文件进行投影.mp416.93M
|   |   ├──27:实战音乐分类器_代码对单首歌曲进行傅里叶变换_代码对600首音乐文件进行傅里叶变换并保存结果.mp421.20M
|   |   ├──28:实战音乐分类器_代码读取600首傅里叶变换后的数据_构建训练集并训练模型.mp417.09M
|   |   ├──29:实战音乐分类器_模型的测试和调优_解决双通道音乐文件的问题.mp428.96M
|   |   ├──代码.rar47.89kb
|   |   └──数据.rar2.27G
|   ├──章节3:SVM支持向量机算法
|   |   ├──1.txt0.20kb
|   |   ├──30:SVM与感知机关系_几何距离与函数距离.mp477.75M
|   |   ├──31:SVM的思想.mp435.92M
|   |   ├──32:几种SVM_SVM的损失函数.mp447.93M
|   |   ├──33:数学预备知识_拉格朗日函数.mp472.18M
|   |   ├──34:硬间隔SVM的两步优化.mp464.90M
|   |   ├──35:总结硬间隔SVM.mp423.26M
|   |   ├──36:软间隔SVM和总结流程.mp476.88M
|   |   ├──37:非线性SVM.mp436.92M
|   |   ├──38:SVM在sklearn中的使用_超参数.mp480.09M
|   |   ├──SVM算法.pdf2.52M
|   |   └──代码.rar1.05M
|   └──章节4:SMO优化算法
|   |   ├──1.txt0.18kb
|   |   ├──39:SVM算法流程总结.mp431.72M
|   |   ├──40:SMO算法求解思路_分解成很多个子二次规划问题分别求解.mp435.52M
|   |   ├──41:SMO将交给它的目标函数变成二元函数进一步变成一元函数.mp432.64M
|   |   ├──42:对一元函数求极值点_推导出旧的α和新的α的关系.mp426.42M
|   |   ├──43:将公式467带入导函数进一步简化_对求解出的新的α2进行剪裁.mp443.49M
|   |   ├──44:再次说明α2如何进行剪裁的思路_根据α2求α1.mp417.79M
|   |   ├──45:启发式选择两个α.mp49.69M
|   |   ├──46:如何计算阈值b.mp419.50M
|   |   ├──47:SVM的SMO实现读取数据和计算fx与Ei.mp444.00M
|   |   ├──48:SVM的SMO实现判断违背条件的α1.mp410.04M
|   |   ├──49:SVM的SMO实现应用公式计算alphas和b.mp412.39M
|   |   ├──50:SVM绘制已有数据点和超平面以及边界.mp49.50M
|   |   ├──51:关于sklearn中的SVM封装的类和超参.mp411.82M
|   |   ├──52:概率化输出_SVM的合页损失函数_Tensorflow实现GD方式求解SVM.mp441.38M
|   |   ├──53:OVR和OVO多分类_算法小结_对比逻辑回归.mp423.19M
|   |   └──代码.rar12.43kb
├──7-机器学习-无监督学习
|   ├──章节1:聚类系列算法
|   |   ├──1.txt0.29kb
|   |   ├──1:KMeans聚类流程_距离测度欧式距离和余弦距离.mp491.95M
|   |   ├──2:距离测度欧式距离和余弦距离的场景_TFIDF.mp478.45M
|   |   ├──3:KMeans的一些变形_KMeans的损失函数推导及假设.mp486.59M
|   |   ├──4:mini-batchKMeans_Canopy聚类_聚类评估指标.mp4117.55M
|   |   ├──5:KMeans代码测试不同情况下的聚类效果.mp497.14M
|   |   ├──6:层次聚类_密度聚类_谱聚类.mp4156.60M
|   |   ├──代码.rar4.86kb
|   |   └──聚类.pdf2.74M
|   ├──章节2:EM算法和GMM高斯混合模型
|   |   ├──1.txt0.32kb
|   |   ├──10:Jensen不等式的应用.mp489.01M
|   |   ├──11:将EM算法应用到GMM中并且推导出了μ和Σ的公式.mp493.58M
|   |   ├──12:将EM算法应用到GMM中并且推导出Π的公式.mp426.97M
|   |   ├──13:GMM前景背景分离.mp413.42M
|   |   ├──14:通过声音文件利用GMM算法识别性别.mp4110.82M
|   |   ├──15:通过声音文件利用GMM算法识别是谁.mp439.78M
|   |   ├──7:单个高斯分布GM的参数估计.mp472.13M
|   |   ├──8:理解GMM高斯混合分布的对数似然函数.mp459.31M
|   |   ├──9:GMM参数估计Πμσ的流程.mp464.00M
|   |   ├──EM算法与GMM模型.pdf725.20kb
|   |   └──代码.rar466.39M
|   └──章节3:PCA降维算法
|   |   ├──1.txt0.34kb
|   |   ├──16:特征选择与特征映射.mp440.62M
|   |   ├──17:PCA的最大投影方差思路.mp4114.37M
|   |   ├──18:最大投影方差推导_最小投影距离思路.mp493.97M
|   |   ├──19:SVD其实就可以去实现PCA了.mp478.15M
|   |   ├──20:PCA的几种应用.mp446.14M
|   |   └──PCA降维与SVD.pdf864.92kb
├──8-机器学习-决策树系列
|   ├──章节1:决策树
|   |   ├──代码
|   |   ├──文档
|   |   ├──10:绘制决策树模型_寻找最优树深度.mp452.70M
|   |   ├──11:代码训练回归树拟合SineWave.mp441.17M
|   |   ├──12:后剪枝的意义.mp428.34M
|   |   ├──13:CCP代价复杂度后剪枝.mp470.84M
|   |   ├──14:CCP代价复杂度剪枝_α超参数设定.mp430.43M
|   |   ├──1:决策树模型的特点.mp435.91M
|   |   ├──2:决策树的数学表达.mp437.59M
|   |   ├──3:如何构建一颗决策树.mp433.06M
|   |   ├──4:什么是更好的一次划分.mp426.88M
|   |   ├──5:Gini系数.mp450.15M
|   |   ├──6:信息增益.mp435.50M
|   |   ├──7:熵与Gini系数关系_信息增益率.mp449.76M
|   |   ├──8:预剪枝以及相关超参数.mp467.97M
|   |   ├──9:代码实战决策树对鸢尾花数据集分类.mp440.63M
|   |   └──新建文本文档.txt0.31kb
|   ├──章节2:集成学习和随机森林
|   |   ├──代码
|   |   ├──15:不同聚合方式_生成不同弱学习器方式.mp443.73M
|   |   ├──16:Bagging_Boosting_Stacking.mp432.60M
|   |   ├──17:随机森林.mp446.31M
|   |   ├──18:代码实战随机森林对鸢尾花数据集分类.mp449.29M
|   |   ├──19:OOB袋外数据.mp451.73M
|   |   ├──20:Adaboost算法思路.mp447.05M
|   |   ├──21:调整数据权重让权重正确率达到50%.mp436.07M
|   |   ├──22:Adaboost如何调整样本权重和求基模型权重.mp448.96M
|   |   └──新建文本文档.txt0.27kb
|   ├──章节3:GBDT
|   |   ├──代码
|   |   ├──23:GBDT试图使用有监督最优化算法梯度下降求解F(x).mp431.81M
|   |   ├──24:GBDT令每个弱学习器f(x)去拟合负梯度.mp448.22M
|   |   ├──25:GBDT每棵树都是回归树_准备数据才能训练下一颗小树.mp443.04M
|   |   ├──26:GBDT应用于回归问题.mp447.06M
|   |   ├──27:GBDT回归举例_总结.mp445.61M
|   |   ├──28:GBDT应用于二分类问题.mp438.79M
|   |   ├──29:GBDT二分类拟合的负梯度依然是残差.mp446.07M
|   |   ├──30:GBDT中shrinkage学习率和最优树权重ρ可以共存.mp434.45M
|   |   ├──31:GBDT应用于多分类任务.mp434.19M
|   |   ├──32:GBDT多分类如何每轮给K颗小树准备要去拟合的负梯度.mp432.70M
|   |   ├──33:GBDT多分类流程.mp439.30M
|   |   ├──34:对比GBDT回归-二分类-多分类相同点与不同点.mp427.64M
|   |   ├──35:GBDT二分类叶子节点分值计算推导.mp440.66M
|   |   ├──36:GBDT多分类叶子节点分值计算.mp429.44M
|   |   ├──37:GBDT二分类举例详解.mp439.44M
|   |   ├──38:GBDT多分类举例详解.mp441.30M
|   |   ├──39:计算特征重要度进行特征选择.mp426.63M
|   |   ├──40:GBDT用于特征组合降维.mp423.37M
|   |   ├──41:特征组合降维在GBDT+LR架构应用.mp428.64M
|   |   ├──42:GBDT在sklearn中源码剖析_初始化F(x).mp443.21M
|   |   ├──43:GBDT在sklearn中源码剖析_负梯度计算和叶子节点分值计算.mp438.70M
|   |   ├──44:GBDT+LR架构训练模型代码实现.mp446.17M
|   |   ├──45:GBDT+LR架构预测评估代码实现.mp433.97M
|   |   └──新建文本文档.txt0.35kb
|   └──章节4:XGBoost
|   |   ├──代码
|   |   ├──文档
|   |   ├──46:回顾有监督机器学习三要素.mp441.79M
|   |   ├──47:Bias_Variance_Trade-off.mp434.35M
|   |   ├──48:基于树集成学习4个优点.mp440.87M
|   |   ├──49:回顾基于树集成学习的模型和参数并举例说明.mp441.65M
|   |   ├──50:通过目标函数Obj来达到准确率和复杂度平衡.mp423.75M
|   |   ├──51:Objective_vs_Heuristic.mp431.42M
|   |   ├──52:得出XGBoost最开始的Obj目标函数.mp441.55M
|   |   ├──53:推导XGBoost对Loss二阶泰勒展开之后的Obj.mp425.79M
|   |   ├──54:Obj化简常数项_明确训练每颗回归树需要准备gi和hi.mp434.32M
|   |   ├──55:重新定义树ft和树的复杂度Ω.mp435.03M
|   |   ├──56:由每个叶子节点重组目标函数Obj.mp430.40M
|   |   ├──57:推导XGBoost出Wj计算公式_推导评价树好坏的Obj.mp431.91M
|   |   ├──58:根据Obj收益指导每一次分裂从而学习一棵树结构.mp446.89M
|   |   ├──59:举例说明从连续型和离散型变量中寻找最佳分裂条件.mp432.77M
|   |   ├──60:XGBoost中防止过拟合的前剪枝_后剪枝_学习率.mp431.76M
|   |   ├──61:样本权重对于模型学习的影响.mp427.69M
|   |   ├──62:总结XGBoost的特性_包括缺失值的处理策略.mp456.22M
|   |   └──新建文本文档.txt0.35kb
└──9-机器学习-概率图模型
|   ├──章节1:贝叶斯分类
|   |   ├──1.txt0.35kb
|   |   ├──1:朴素贝叶斯分类算法.mp4116.02M
|   |   ├──2:TF-IDF.mp449.48M
|   |   ├──3:NB代码实现解析.mp499.88M
|   |   ├──4:sklearn中调用NB_顺便讲解了GridSearchCV.mp4101.39M
|   |   ├──5:语言模型的设计目的_MLE的作用进行参数估计.mp494.29M
|   |   ├──6:贝叶斯网络_马尔可夫链.mp431.66M
|   |   ├──NB_HMM.pdf826.78kb
|   |   └──代码.rar7.43kb
|   ├──章节2:HMM算法
|   |   ├──1.txt0.44kb
|   |   ├──10:HMM预测问题使用维特比算法.mp426.13M
|   |   ├──11:HMM复习_明确概率计算问题要解决的目标.mp464.58M
|   |   ├──12:前向算法来解决概率计算问题.mp427.37M
|   |   ├──13:Viterbi算法案例详解.mp471.73M
|   |   ├──14:Viterbi算法代码实现.mp432.89M
|   |   ├──7:HMM隐马的定义.mp432.91M
|   |   ├──8:HMM隐马的三组参数_三个基本问题.mp456.04M
|   |   ├──9:HMM预测问题使用前向算法.mp435.98M
|   |   ├──代码.rar0.94kb
|   |   └──资料.rar26.48kb
|   └──章节3:CRF算法
|   |   ├──1.txt0.27kb
|   |   ├──15:NER与分词和POS的关系_NER的标注策略_NER的主要方法.mp484.70M
|   |   ├──16:讲解了一下常见的深度学习LSTM+CRF的网络拓扑.mp440.03M
|   |   ├──17:了解CRF层添加的好处.mp462.99M
|   |   ├──18:EmissionScore_TransitionScore.mp451.67M
|   |   ├──19:CRF的目标函数.mp414.35M
|   |   ├──20:计算CRF真实路径的分数.mp444.34M
|   |   ├──21:计算CRF所有可能路径的总分数.mp486.35M
|   |   ├──22:通过模型来预测新的句子的序列标签.mp450.16M
|   |   └──CRF_NER.pdf1.17M

youliaoa 发表于 2024-8-22 08:36

谢谢分享

wsx123 发表于 2024-8-22 08:40

111111111111111

piggaga00 发表于 2024-8-22 08:40


111111111111111

crazyfish1986 发表于 2024-8-22 08:46

强烈支持楼主ing……

gqing362502 发表于 2024-8-22 08:47

强烈支持楼主ing……

rklt_jxh 发表于 2024-8-22 08:50

感谢分享

jobily 发表于 2024-8-22 08:52

666

delpans 发表于 2024-8-22 08:53

66666666666666666666666666666666666

smartfind 发表于 2024-8-22 08:54

强烈支持楼主ing……
页: [1] 2 3 4 5 6 7
查看完整版本: RK0088-【百Z】人工智能AI深度学习就业班