论坛元老
 
- 威望
- 283
- 贡献
- 342
- 热心值
- 30
- 金币
- 99020
- 注册时间
- 2020-8-31
|
导语
近年来,随着人工智能技术的不断发展,大模型在科技领域引起了巨大的关注和热议。大模型是指参数数量庞大、具备海量数据训练能力的人工智能模型。本文将深入探讨大模型的背景、优势以及其在不同领域的应用,以揭示大模型为人工智能带来的壮丽进化之路。
——/24年最新贪心科技大模型微调实战营/
├──01 第一周
| └──01 第一节 2024年1月21日
| | └──01 开营+大模型介绍、Transformer
├──02 第二周
| └──01 第二节 2024年1月28日
| | └──01 Transformer、Encoder、Advanced
├──03 第三周
| └──01 第三节 2024年2月25日
| | └──01 大模型微调概览 Lora微调
├──04 第四周
| └──01 第四节 2024年3月3日
| | └──01 Alpaca、AdaLoRA、QLoRA
├──05 第五周
| └──01 第五节 2024年3月17日
| | └──01 Prefix Tuning、Quantization
├──06 第六周
| └──01 助教补充课 2024年3月24日
| | └──01 llama介绍&运行&量化&部署&微调
├──07 第七周
| └──01 第六节 2024年3月31日
| | └──01 Distributed Computing、Flash Attention
├──08 第八周
| └──01 第六节补充课
| | └──01 Flash Attention cont、微调Mistral 7B
├──09 第九周
| └──01 第七节 2024年4月14日
| | └──01 强化学习
├──10 第十周
| └──01 第七节补充课 2024年4月17日
| | └──01 Optimal Policy、Intro to Monte Carlo
└──课件资料
| ├──课程资料
| | ├──第三节-课程资料 20240225
| | ├──第四节-课程资料 20240303
| | ├──第六节补充课 课程资料 20240406-微调Mistral7B.pdf 13.63M
| | ├──项目手册1:QLoRA finetune Microsoft Phi.pdf 17.34M
| | └──助教补充课 课程资料 20240324 llama介绍&运行&量化&部署&微调.pdf 19.46M
| └──课件
| | ├──第二节-课件 20240128.pdf 27.33M
| | ├──第六节-补充课-课件 20240406.pdf 20.90M
| | ├──第六节-课件1 20240331.pdf 22.37M
| | ├──第六节-课件2 20240331.pdf 25.45M
| | ├──第三节-课件 20240225.pdf 37.39M
| | ├──第四节课-课件 20240303.pdf 28.48M
| | ├──第五节-课件 20240317.pdf 33.33M
| | ├──第一节-课件 20240121.pdf 25.15M
| | ├──第二节-课件 20240128.pdf 27.33M
| | ├──第三节-课件 20240225.pdf 37.39M
| | ├──第四节课-课件 20240303.pdf 28.48M
| | ├──第一节-课件 20240121.pdf 25.15M
| | ├──第一节-拓展资料 20240121(1).txt 0.73kb
| | └──第一节-拓展资料 20240121.txt 0.73kb
|
|