AI大模型微调训练营资源简介:
需要具备 Python 语言基础,使用过 ChatGPT 或其他类似的产品,同时对反向传播、神经网络、注意力机制以及 Transformer 有基本的了解。能够掌握主流的大模型微调技术,提升大模型应用的准确率,满足业务需求。并可以基于国产硬件和大模型完成适配工作,满足合规要求。
目录:
├── 1-开营直播:大语言模型微调的前沿技术与应用/ │ ├── [400M] 01-大模型微调的前沿技术与应用 │ ├── [10.0M] 开营直播:大语言模型微调的前沿技术与应用.pdf │ └── [ 16K] 评论区记录.xlsx ├── 2-大模型四阶技术总览/ │ ├── [ 17K] 20231203评论区记录.xlsx │ ├── [750M] AI大模型四阶技术总览 │ ├── [ 19M] 1-AI大模型四阶技术总览-新.pdf │ └── [ 21M] 1-AI大模型四阶技术总览.pdf ├── 3-大语言模型技术发展与演进/ │ ├── [ 18M] 大语言模型技术发展与演进.pdf │ ├── [1015M] 大模型演进 │ ├── [10.0M] 论文.zip │ └── [ 17K] 评论区记录.xlsx ├── 4-大语言模型微调技术揭秘-PEFT/ │ ├── [ 14K] 20231206评论区记录.xlsx │ ├── [ 17M] Fine-tuning论文.zip │ ├── [ 10M] 大模型微调技术揭秘-PEFT.pdf │ ├── [ 18M] 大语言模型技术发展与演进.pdf │ ├── [616M] 大模型微调技术揭秘-PEFT-1 │ └── [523M] 大模型微调技术揭秘-PEFT-2 ├── 5-大语言模型微调技术揭秘-LoRA/ │ ├── [ 16K] 20231210评论区记录.xlsx │ ├── [479K] UniPELT A Unified Framework for Parameter-Efficient Language Model Tuning.pdf │ ├── [7.6M] 大模型微调技术揭秘-LoRA.pdf │ ├── [ 16M] 大模型微调技术揭秘.pdf │ ├── [624M] 大模型低秩适配(LoRA)技术-1 │ ├── [725M] 大模型低秩适配(LoRA)技术-2 │ └── [809M] 大模型低秩适配(LoRA)技术-3 ├── 6-大模型开发工具库/ │ ├── [4.5M] 大模型开发工具库 HF Transformers.pdf │ ├── [587M] 大模型开发工具-1 │ ├── [922M] 大模型开发工具-2 │ └── [300M] 大模型开发工具-3 ├── 7-实战 Transformers 模型微调/ │ ├── [ 16K] 20231220评论区记录.xlsx │ ├── [4.4M] 6-实战Transformers模型微调.pdf │ └── [846M] 实战 Transformers 模型微调 ├── 8-实战Transformers模型量化/ │ ├── [ 12K] 20231224评论区记录.xlsx │ ├── [5.6M] Quantization论文.zip │ ├── [6.4M] 实战Transformers模型量化.pdf │ ├── [708M] 实战Transformers模型量化-1 │ ├── [785M] 实战Transformers模型量化-2 │ └── [755M] 实战Transformers模型量化-3 ├── 9-大模型高效微调工具HF PEFT/ │ ├── [ 13K] 20231227评论区记录.xlsx │ ├── [2.8M] 大模型高效微调工具HF PEFT.pdf │ ├── [724M] 大模型高效微调工具HF PEFT-1 │ ├── [817M] 大模型高效微调工具HF PEFT-2 │ └── [580M] 大模型高效微调工具HF PEFT-3 ├── 10-实战QLoRA微调ChatGLM3-6B/ │ ├── [ 10K] 20240103评论区记录.xlsx │ ├── [1.8G] AI 大模型微调训练营第 0 期直播课-6.flv │ ├── [8.4M] GLM论文.zip │ ├── [ 14M] 实战QLoRA 微调 ChatGLM3-6B.pdf │ ├── [595M] 实战QLoRA微调ChatGLM3-6B-1 │ └── [757M] 实战QLoRA微调ChatGLM3-6B-2 ├── 11-快速入门 LangChain/ │ ├── [9.8M] 快速入门 LangChain 大模型应用开发框架.pdf │ ├── [373M] 快速入门 LangChain-1 │ └── [841M] 快速入门 LangChain-2 ├── 12-实战基于LangChain和ChatGLM私有化部署聊天机器人/ │ ├── [ 13K] 20240110评论区记录.xlsx │ ├── [ 11M] 实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf │ └── [669M] 实战基于LangChain和ChatGLM私有化部署聊天机器人 ├── 13-实战私有数据微调ChatGLM3/ │ ├── [ 14K] 20240118评论区记录.xlsx │ ├── [ 10M] 实战私有数据微调ChatGLM3.pdf │ └── [708M] 实战私有数据微调ChatGLM3 ├── 14-ChatGPT大模型训川练技术RLHF/ │ ├── [ 13K] 20240121评论区记录.xlsx │ ├── [748M] ChatGPT大模型训川练技术RLHF-1 │ ├── [744M] ChatGPT大模型训川练技术RLHF-2 │ └── [6.5M] ChatGPT大模型训练技术RLHF.pdf ├── 15-混合专家模型(MoEs)技术揭秘/ │ ├── [ 11K] 20240124评论区记录.xlsx │ ├── [7.7M] MoEs论文@优库it资源ukoou.com.zip │ ├── [5.4M] 混合专家模型(MoEs)技术揭秘.pdf │ ├── [693M] 混合专家模型(MoEs)技术揭秘-1 │ └── [744M] 混合专家模型(MoEs)技术揭秘-2 ├── 16-大模型分布式训练框架 Microsoft DeepSpeed/ │ ├── [ 13K] 20240128评论区记录.xlsx │ ├── [2.8M] ZeRO论文.zip │ ├── [7.9M] 大模型分布式训练框架Microsoft DeepSpeed(1).pdf │ ├── [681M] 大模型分布式训练框架 Microsoft DeepSpeed-1 │ ├── [793M] 大模型分布式训练框架 Microsoft DeepSpeed-2 │ ├── [814M] 大模型分布式训练框架 Microsoft DeepSpeed-3 │ └── [739M] 大模型分布式训练框架 Microsoft DeepSpeed-4 ├── 17-Meta AI 大模型家族 LLaMA/ │ ├── [ 12K] 20240131评论区记录.xlsx │ ├── [ 15M] LLaMAl论文.zip │ ├── [641M] Meta AI 大模型家族 LLaMA │ └── [8.7M] Meta AI 大模型家族 LLaMA.pdf └── 资料代码/
此隐藏内容仅限VIP查看升级VIP
侵权联系与免责声明 1、本站资源所有言论和图片纯属用户个人意见,与本站立场无关 2、本站所有资源收集于互联网,由用户分享,该帖子作者与BBM资源站不享有任何版权,如有侵权请联系本站删除 3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责 4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意 如有侵权联系邮箱:1415374178@qq.com
评论0