本项目是一个面向大模型应用开发者的微调(Fine-tuning)技术全栈教程,旨在通过体系化的学习路径和动手实践项目,帮助开发者掌握基于大语言模型的微调技术,构建定制化的智能应用。
在线阅读: Hello LLM Fine-Tuning 文档
主要内容包括:
- 微调前置知识:提示工程、AI智能体等基础概念
- 理论基础:语言模型演进、预训练技术原理
- 微调入门:从理论到实践的完整微调流程
- PEFT参数高效微调:LoRA、Adapter、P-Tuning等主流方法
- 模型部署:vLLM、Triton等推理部署方案
- 🎯 体系化学习路径 - 从基础概念到高级应用,构建完整的微调技术学习体系
- 📚 理论与实践并重 - 每个章节都包含理论讲解和代码实践
- 🔧 多种微调方法覆盖 - LoRA、QLoRA、Adapter、P-Tuning 等主流方法
- 🚀 工程化导向 - 注重模型部署等工程实践
- AI大模型四阶通关指南 - 从提示词到预训练的技术路线图
- 01 提示工程实战指南 - 零训练成本解锁大模型潜力
- 02 从零构建AI智能体 - ReAct范式与LangChain实战
- 01 语言模型演进全解析 - 从统计到GPT/BERT的核心突破
- 02 大模型预训练技术 - 从通识教育到千亿参数炼成
- 01 大模型微调实战指南 - 从理论到高效落地的核心路径
- 02 Hugging Face Transformers入门 - 大模型微调入门实战
- 01 PEFT实战指南 - 用1%参数高效微调大模型
- 02 PEFT主流技术全解析 - 四大核心类别与实战选型
- 03 Soft Prompt实战指南 - Prefix Tuning vs Prompt Tuning
- 04 P-Tuning演进全解析 - 从V1到V2的核心技术
- 05 Adapter微调革命 - 用3.6%参数撬动大模型100%性能
- 06 LoRA低秩适配微调 - 百万参数撬动十亿大模型
- 07 UniPELT实战指南 - 统一高效微调大模型的终极框架
- 01 大模型量化实战指南 - 从16GB到4GB显存的高效压缩
- 02 GPTQ实战指南 - 单GPU搞定千亿模型量化
- 01 vLLM推理引擎深度拆解 - 核心加速机制与组件原理
- 02 Triton部署实战指南 - 从设计思想到生产落地
- 具备 Python 编程基础,对大模型微调感兴趣的开发者
- 希望系统学习微调技术的 AI 工程师
- 想要定制化大模型能力的产品开发者
- 掌握 Python 基础语法和 PyTorch 基本使用
- 了解 Transformer 架构基础概念
- 具备基础的 Linux 命令行操作能力
# 安装 docsify-cli
npm install -g docsify-cli
# 启动本地服务
docsify serve docs
# 访问 http://localhost:3000Hello-LLM-FineTuning/
├── docs/ # 教程文档
│ ├── index.html # docsify 配置
│ ├── _sidebar.md # 侧边栏导航
│ ├── logo.png # 项目 Logo
│ ├── chapter0/ # 第零章:导读
│ ├── chapter1/ # 第一章:微调前置知识
│ ├── chapter2/ # 第二章:理论基础
│ ├── chapter3/ # 第三章:微调入门
│ ├── chapter4/ # 第四章:PEFT参数高效微调
│ ├── chapter5/ # 第五章:模型部署
│ └── images/ # 图片资源
├── .github/ # GitHub 配置
│ └── ISSUE_TEMPLATE/ # Issue 模板
├── LICENSE # CC BY-NC-SA 4.0 许可证
└── README.md # 项目首页(本文件)
欢迎提交 Issue 和 Pull Request!
本项目采用 CC BY-NC-SA 4.0 许可证(知识共享署名-非商业性使用-相同方式共享 4.0 国际)
