论坛元老
- 威望
- 86
- 贡献
- 165
- 热心值
- 5
- 金币
- 26464
- 注册时间
- 2020-8-31
|
人工智能训练营
├──人工智能5天入门训练营
| └──视频
| | ├──01_人工智能就业前景与薪资 .mp4 49.38M
| | ├──02_人工智能适合人群与必备技能 .mkv 47.37M
| | ├──03_人工智能时代是发展的必然 .mp4 25.61M
| | ├──04_人工智能在各领域的应用 .mp4 61.77M
| | ├──05_人工智能常见流程 .mkv 83.88M
| | ├──06_机器学习不同的学习方式 .mkv 72.54M
| | ├──07_深度学习比传统机器学习有优势 .mkv 75.32M
| | ├──08_有监督机器学习任务与本质 .mp4 37.24M
| | ├──09_无监督机器学习任务与本质 .mp4 48.91M
| | ├──10_理解简单线性回归 .mp4 27.98M
| | ├──11_最优解_损失函数_MSE .mp4 34.83M
| | ├──12_扩展到多元线性回归 .mp4 26.65M
| | ├──13_理解多元线性回归表达式几种写法的原因 .mp4 37.58M
| | ├──14_理解维度这个概念 .mp4 37.11M
| | ├──15_理解回归一词_中心极限定理_正太分布和做预测 .mp4 61.53M
| | ├──16_假设误差服从正太分布_最大似然估计MLE .mp4 42.35M
| | ├──17_引入正太分布的概率密度函数 .mp4 26.36M
| | ├──18_明确目标通过最大总似然求解θ .mp4 25.88M
| | ├──19_对数似然函数_推导出损失函数MSE .mp4 39.75M
| | ├──20_把目标函数按照线性代数的方式去表达 .mp4 22.09M
| | ├──21_推导出目标函数的导函数形式 .mp4 39.83M
| | ├──22_θ解析解的公式_是否要考虑损失函数是凸函数 .mp4 58.01M
| | ├──23_Python开发环境版本的选择及下载 .mp4 46.00M
| | ├──24_Anaconda环境安装_Pycharm环境安装 .mp4 64.55M
| | ├──25_Pycharm创建脚本并测试python开发环境 .mp4 26.27M
| | ├──26_解析解的方式求解多元线性回归_数据Xy .mp4 30.66M
| | ├──27_解析解的方式求解多元线性回归_求解模型_使用模型_绘制图形 .mp4 39.16M
| | ├──28_解析解的方式求解多元线性回归_扩展随机种子概念_增加维度代码的变换 .mp4 30.05M
| | ├──29_Scikit-learn模块的介绍 .mp4 29.99M
| | ├──30_调用Scikit-learn中的多元线性回归求解模型(上) .mp4 24.35M
| | ├──31_调用Scikit-learn中的多元线性回归求解模型(下) .mp4 34.52M
| | ├──32_梯度下降法产生的目的和原因以及思想 .mp4 53.73M
| | ├──33_梯度下降法公式 .mp4 50.85M
| | ├──34_学习率设置的学问_全局最优解 .mp4 47.99M
| | ├──35_梯度下降法迭代流程总结 .mp4 24.60M
| | ├──36_多元线性回归下的梯度下降法 .mp4 38.45M
| | ├──37_全量梯度下降 .mp4 59.04M
| | ├──38_随机梯度下降_小批量梯度下降 .mp4 43.98M
| | ├──39_对应梯度下降法的问题和挑战 .mp4 42.22M
| | ├──40_轮次和批次 .mp4 50.90M
| | ├──41_代码实现全量梯度下降第1步和第2步 .mp4 20.15M
| | ├──42_代码实现全量梯度下降第3步和第4步 .mp4 26.11M
| | ├──43_代码实现随机梯度下降 .mp4 21.62M
| | ├──44_代码实现小批量梯度下降 .mp4 22.83M
| | ├──45_代码改进保证训练数据全都能被随机取到 .mp4 23.94M
| | └──46_代码改进实现随着迭代增加动态调整学习率 .mp4 34.35M
├──人工智能之快速入门与线性回归
| └──视频
| | ├──01_五天实训的内容_人工智能应用 .mp4 181.00M
| | ├──02_AI的流程_ML和DL关系_回归、分类、聚类、降维的本质 .mp4 164.27M
| | ├──03_线性回归的表达式_损失函数MSE .mp4 127.19M
| | ├──04_推导出多元线性回归的损失函数 .mp4 203.15M
| | ├──05_从MSE到θ的解析解形式 .mp4 83.50M
| | ├──06_安装Anaconda和PyCharm运行和开发软件 .mp4 70.53M
| | ├──07_python代码实现多元线性回归解析解的求解方法 .mp4 77.19M
| | ├──08_梯度下降法的步骤_公式 .mp4 119.11M
| | └──09_根据损失函数MSE推导梯度的公式 .mp4 70.57M
├──人工智能之人脸识别与目标检测、语义分割
| └──视频
| | ├──01_作业的讲解_知识的回顾 .mp4 65.84M
| | ├──02_人脸识别的架构流程分析 .mp4 120.48M
| | ├──03_FaceNet论文_架构_三元组损失 .mp4 258.24M
| | ├──04_MTCNN论文_架构_损失函数 .mp4 130.11M
| | ├──05_facenet-master项目的下载和导入 .mp4 76.42M
| | ├──06_人脸识别项目代码_实操作业要求 .mp4 372.07M
| | ├──07_FasterRCNN目标检测口罩项目展示_图片标注工具labelimg的使用 .mp4 178.23M
| | ├──08_FasterRCNN论文_架构_思想 .mp4 353.63M
| | └──09_MaskRCNN的架构_思想_蒙版弹幕项目效果 .mp4 163.40M
├──人工智能之神经网络与TensorFlow
| └──视频
| | ├──01_作业讲解_回顾昨日知识 .mp4 88.83M
| | ├──02_打鸡血_聊一下图像算法工程师就业薪资水平 .mp4 154.82M
| | ├──03_NN神经元_常用的3种激活函数_NN理解LR做多分类 .mp4 103.06M
| | ├──04_讲解Softmax回归算法 .mp4 111.03M
| | ├──05_多层神经网络的好处_隐藏层的激活函数必须是非线性的原因 .mp4 90.54M
| | ├──06_TensorFlow对于CPU版本的安装 .mp4 62.85M
| | ├──07_TensorFlow对于GPU版本的安装 .mp4 109.37M
| | ├──08_TensorFlow实现多元线性回归预测房价 .mp4 198.36M
| | └──09_TensorFlow实现Softmax回归分类MNIST手写数字识别 .mp4 123.55M
├──人工智能之图像识别与图像分割
| └──视频
| | ├──01_TensorFlow实现DNN分类MNIST手写数字识别 .mp4 223.46M
| | ├──02_卷积神经网络卷积层_卷积的计算 .mp4 112.61M
| | ├──03_池化的计算_SAME和VALID模式_经典CNN结构 .mp4 78.50M
| | ├──04_TensorFlow实训CNN分类MNIST手写数字识别 .mp4 179.12M
| | ├──05_VGG16网络模型_数据增强_COVID19医疗图片的识别 .mp4 224.21M
| | ├──06_U-Net网络模型_细胞核数据的读取 .mp4 206.51M
| | └──07_U-Net网络进行细胞核切分的训练代码 .mp4 97.14M
└──人工智能之线性回归优化与逻辑回归
| └──视频
| | ├──01_利用GD来求解多元线性回归的最优解 .mp4 106.63M
| | ├──02_归一化 .mp4 219.45M
| | ├──03_正则化 .mp4 137.35M
| | ├──04_ScikitLearn介绍_岭回归的本质_Lasso回归的本质 .mp4 104.90M
| | ├──05_多项式回归_保险花销预测案例 .mp4 250.14M
| | ├──06_基于保险案例进行更多的数据的EDA .mp4 80.69M
| | ├──07_逻辑回归表达式的推导_逻辑回归损失函数的推导 .mp4 116.54M
| | └──08_逻辑回归代码实战Iris二分类和多分类任务 .mp4 92.65M
|
|