我们基于 LLaMA 系列模型(包括 LLaMA2)开发了 LLM-Tuning Web UI,利用 QLoRA 方法可以在 24GB 显卡上完成 LLaMA 模型的二次预训练、指令微调和 RLHF,欢迎关注我们的框架:

发布于 2023-07-19 21:58・IP 属地北京
我们基于 LLaMA 系列模型(包括 LLaMA2)开发了 LLM-Tuning Web UI,利用 QLoRA 方法可以在 24GB 显卡上完成 LLaMA 模型的二次预训练、指令微调和 RLHF,欢迎关注我们的框架: