跳到主要内容

产品简介

更新时间:2025-07-17 18:30:25

LLaMA Factory Online是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。

LLaMA-Factory Online

通过 LLaMA Factory Online,可以在无需编写任何代码的前提下,在云端完成上百种预训练模型的微调,框架特性包括:

  • 模型种类:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。

  • 训练算法:(增量)预训练、(多模态)指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等等。

  • 运算精度:16 比特全参数微调、冻结微调、LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8/HQQ/EETQ 的 2/3/4/5/6/8 比特 QLoRA 微调。

  • 优化算法:GaLore、BAdam、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ 和 PiSSA。

  • 加速算子:FlashAttention-2 和 Unsloth。

  • 推理引擎:Transformers 和 vLLM。

  • 实验监控:LlamaBoard、TensorBoard、Wandb、MLflow、SwanLab 等等。

    首页

产品优势

  • 高效且低成本:能够高效且低成本地支持对100多个模型进行微调,简化了模型微调的过程。
  • 易于访问和使用:提供了友好的用户界面,用户无需编写代码即可轻松定制和微调LLMs。
  • 丰富的数据集选项:支持多个数据集选项,用户可以选择自带的数据集或自己生成数据集进行微调。
  • 多样化的算法支持:集成了业界最广泛使用的微调方法和优化技术,如LoRA、GaLore、DoRA等。
  • 实时监控和评估:支持集成TensorBoard、WanDB和MLflow等监控工具,便于实时监控训练过程和评估模型性能。
  • 极速推理:提供了基于vLLM的OpenAI风格API、浏览器界面和命令行接口,实现快速推理。

应用场景

  • 在医学、法律、金融、文化等垂直领域上,使用 LLaMA-Factory 微调基础多模态大模型,提升多模态大模型在特定任务上的表现。
  • 针对特定任务优化模型,如文本生成、分类、问答、翻译等。
  • 在资源有限的场景下,使用LoRA、QLoRA等方法低成本微调模型,无需调整全部参数。
  • 方便AI开发者、研究人员、企业技术团队,快速定制化LLM。