领域大模型微调案例课资源介绍:
你将掌握 Prompt Tuning、LoRA 等高效微调技术,深入金融(FinGPT)、法律(LawGPT_zh)、医疗(ChatDoctor)、教育(Taoli)等真实项目,理解模型从选型到部署的全流程落地逻辑。课程还解析 SOLAR、MoE 等前沿架构,破解长文本处理与模型幻觉难题。通过动手实践,你将具备打造行业专属 AI 系统的能力。无论你希望成为 AI 工程专家,还是进军金融科技、智慧医疗等领域,这都是你不可或缺的关键一跃。
资源介绍:
01|为什么要做领域模型?.mp4
02|ChatGPT训练回顾及领域模型微调范式.mp4
03|领域微调基础模型选择LLaMA、GLM、BLoom及其对比.mp4
03|领域微调基础模型选择LLaMA、GLM、BLoom及其对比_ev.mp4
04|领域微调微调加速prompttuningLoRAadapter.mp4
05|金融领域微调模型项目解读:FinGPT、Cornucopia-LLaMA-Fin-Chinese等.mp4
06|法律领域微调模型项目解读:LawGPT_zh、LawyerLLaMA等.mp4
07|医疗领域微调模型项目解读:ChatDoctor、Huatuo等.mp4
08|教育领域微调模型项目解读:Taoli、MediaLLaMA等.mp4
09|多步骤微调、扩充LLAma词表、遗忘问题、幻觉问题的一些思考.mp4
10|大模型长文本技术实现思路及代表案例.mp4
11|大模型长文本技术主流评测.mp4
12|嫁接模型SOLAR及Moe模型基本理解.mp4
13|Moe模型的优缺点.mp4
14|现有开源的代表Moe模型项目.mp4