跳到主要内容

llamafactory online

  1. 首先在本地完成数据准备,参考https://www.weclone.love/zh/docs/deploy/data_preprocessing.html#%E6%95%B0%E6%8D%AE%E9%A2%84%E5%A4%84%E7%90%86

  2. 在实例空间选择CPU资源进行相关配置

    image

    选择**JupyterLab处理专属数据,**将执行 weclone-cli make-dataset 后的结果(sft-my.jsondataset_info.json)上传到 /workspace/llamafactory/data

    image

    D:\llamafactory-online-docs\static\documents\Practice\llama\image 1.png

    进入WebUI填写参数(可根据需要调整)

    image

    image

  3. 关机,重新启动实例,选择GPU资源,在WebUI点击最下方开始,开始微调

  4. 微调完成后可以点击chat进行测试(需要填写系统提示词,参考settings.jsonc

  5. 最后将/workspace/user-data/models/output/Qwen2.5-14B-Instruct/lora目录的训练结果下载到本地进行部署,修改settings.jsoncadapter_name_or_path 为你下载的目录名