Replies: 1 comment
-
InternLM2的1.8B通过指令微调,效果怎么样 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
项目简介
本项目旨在开发一个基于大小模型协同的LLM的智能对话助手,能够重新组织用户的任意输入问题,提供高质量的回答。
项目任务
数据集收集:收集并整理大量高质量的对话数据,以便训练和微调模型。
模型微调:使用Xtuner对预训练模型进行微调,以提高其在特定任务上的表现。
模型部署:将微调后的模型部署为可供用户访问的服务,支持实时对话。
用户交互:设计用户友好的界面,方便用户与模型进行对话,并输出高质量的回答。
项目步骤
Beta Was this translation helpful? Give feedback.
All reactions