AI大模型微调训练营

2024-03-10

AI大模型微调训练营资源介绍:

AI大模型微调训练营

AI大模型微调训练营封面图

需要具备 Python 语言基础,使用过 ChatGPT 或其他类似的产品,同时对反向传播、神经网络、注意力机制以及 Transformer 有基本的了解。能够掌握主流的大模型微调技术,提升大模型应用的准确率,满足业务需求。并可以基于国产硬件和大模型完成适配工作,满足合规要求。

资源目录:

├── 1-开营直播:大语言模型微调的前沿技术与应用/
│   ├── [400M] 01-大模型微调的前沿技术与应用
│   ├── [10.0M] 开营直播:大语言模型微调的前沿技术与应用.pdf
│   └── [ 16K] 评论区记录.xlsx
├── 2-大模型四阶技术总览/
│   ├── [ 17K] 20231203评论区记录.xlsx
│   ├── [750M] AI大模型四阶技术总览
│   ├── [ 19M] 1-AI大模型四阶技术总览-新.pdf
│   └── [ 21M] 1-AI大模型四阶技术总览.pdf
├── 3-大语言模型技术发展与演进/
│   ├── [ 18M] 大语言模型技术发展与演进.pdf
│   ├── [1015M] 大模型演进
│   ├── [10.0M] 论文.zip
│   └── [ 17K] 评论区记录.xlsx
├── 4-大语言模型微调技术揭秘-PEFT/
│   ├── [ 14K] 20231206评论区记录.xlsx
│   ├── [ 17M] Fine-tuning论文.zip
│   ├── [ 10M] 大模型微调技术揭秘-PEFT.pdf
│   ├── [ 18M] 大语言模型技术发展与演进.pdf
│   ├── [616M] 大模型微调技术揭秘-PEFT-1
│   └── [523M] 大模型微调技术揭秘-PEFT-2
├── 5-大语言模型微调技术揭秘-LoRA/
│   ├── [ 16K] 20231210评论区记录.xlsx
│   ├── [479K] UniPELT A Unified Framework for Parameter-Efficient Language Model Tuning.pdf
│   ├── [7.6M] 大模型微调技术揭秘-LoRA.pdf
│   ├── [ 16M] 大模型微调技术揭秘.pdf
│   ├── [624M] 大模型低秩适配(LoRA)技术-1
│   ├── [725M] 大模型低秩适配(LoRA)技术-2
│   └── [809M] 大模型低秩适配(LoRA)技术-3
├── 6-大模型开发工具库/
│   ├── [4.5M] 大模型开发工具库 HF Transformers.pdf
│   ├── [587M] 大模型开发工具-1
│   ├── [922M] 大模型开发工具-2
│   └── [300M] 大模型开发工具-3
├── 7-实战 Transformers 模型微调/
│   ├── [ 16K] 20231220评论区记录.xlsx
│   ├── [4.4M] 6-实战Transformers模型微调.pdf
│   └── [846M] 实战 Transformers 模型微调
├── 8-实战Transformers模型量化/
│   ├── [ 12K] 20231224评论区记录.xlsx
│   ├── [5.6M] Quantization论文.zip
│   ├── [6.4M] 实战Transformers模型量化.pdf
│   ├── [708M] 实战Transformers模型量化-1
│   ├── [785M] 实战Transformers模型量化-2
│   └── [755M] 实战Transformers模型量化-3
├── 9-大模型高效微调工具HF PEFT/
│   ├── [ 13K] 20231227评论区记录.xlsx
│   ├── [2.8M] 大模型高效微调工具HF PEFT.pdf
│   ├── [724M] 大模型高效微调工具HF PEFT-1
│   ├── [817M] 大模型高效微调工具HF PEFT-2
│   └── [580M] 大模型高效微调工具HF PEFT-3
├── 10-实战QLoRA微调ChatGLM3-6B/
│   ├── [ 10K] 20240103评论区记录.xlsx
│   ├── [1.8G] AI 大模型微调训练营第 0 期直播课-6.flv
│   ├── [8.4M] GLM论文.zip
│   ├── [ 14M] 实战QLoRA 微调 ChatGLM3-6B.pdf
│   ├── [595M] 实战QLoRA微调ChatGLM3-6B-1
│   └── [757M] 实战QLoRA微调ChatGLM3-6B-2
├── 11-快速入门 LangChain/
│   ├── [9.8M] 快速入门 LangChain 大模型应用开发框架.pdf
│   ├── [373M] 快速入门 LangChain-1
│   └── [841M] 快速入门 LangChain-2
├── 12-实战基于LangChain和ChatGLM私有化部署聊天机器人/
│   ├── [ 13K] 20240110评论区记录.xlsx
│   ├── [ 11M] 实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf
│   └── [669M] 实战基于LangChain和ChatGLM私有化部署聊天机器人
├── 13-实战私有数据微调ChatGLM3/
│   ├── [ 14K] 20240118评论区记录.xlsx
│   ├── [ 10M] 实战私有数据微调ChatGLM3.pdf
│   └── [708M] 实战私有数据微调ChatGLM3
├── 14-ChatGPT大模型训川练技术RLHF/
│   ├── [ 13K] 20240121评论区记录.xlsx
│   ├── [748M] ChatGPT大模型训川练技术RLHF-1
│   ├── [744M] ChatGPT大模型训川练技术RLHF-2
│   └── [6.5M] ChatGPT大模型训练技术RLHF.pdf
├── 15-混合专家模型(MoEs)技术揭秘/
│   ├── [ 11K] 20240124评论区记录.xlsx
│   ├── [7.7M] MoEs论文@优库it资源ukoou.com.zip
│   ├── [5.4M] 混合专家模型(MoEs)技术揭秘.pdf
│   ├── [693M] 混合专家模型(MoEs)技术揭秘-1
│   └── [744M] 混合专家模型(MoEs)技术揭秘-2
├── 16-大模型分布式训练框架 Microsoft DeepSpeed/
│   ├── [ 13K] 20240128评论区记录.xlsx
│   ├── [2.8M] ZeRO论文.zip
│   ├── [7.9M] 大模型分布式训练框架Microsoft DeepSpeed(1).pdf
│   ├── [681M] 大模型分布式训练框架 Microsoft DeepSpeed-1
│   ├── [793M] 大模型分布式训练框架 Microsoft DeepSpeed-2
│   ├── [814M] 大模型分布式训练框架 Microsoft DeepSpeed-3
│   └── [739M] 大模型分布式训练框架 Microsoft DeepSpeed-4
├── 17-Meta AI 大模型家族 LLaMA/
│   ├── [ 12K] 20240131评论区记录.xlsx
│   ├── [ 15M] LLaMAl论文.zip
│   ├── [641M] Meta AI 大模型家族 LLaMA
│   └── [8.7M] Meta AI 大模型家族 LLaMA.pdf
└── 资料代码/
此隐藏内容仅限VIP查看升级VIP

免责声明: 1、本站信息来自网络,版权争议与本站无关 2、本站所有主题由该帖子作者发表,该帖子作者与本站享有帖子相关版权 3、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和本站的同意 4、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责 5、用户所发布的一切软件的解密分析文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。 6、您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。 7、请支持正版软件、得到更好的正版服务。 8、如有侵权请立即告知本站(邮箱:1807388100@qq.com,备用QQ:1807388100),本站将及时予与删除 9、本站所发布的一切破解补丁、注册机和注册信息及软件的解密分析文章和视频仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。

独角兽资源站 python AI大模型微调训练营 https://www.itdjs.com/6044/html

发表评论
暂无评论
  • 0 +

    资源总数

  • 0 +

    今日发布

  • 0 +

    本周发布

  • 0 +

    运行天数

你的前景,远超我们想象