基于Qwen2.5-14B-Instruct的MBTI人格测试
本实践通过 “对话即测评” 的创新模式,解决了传统MBTI测试的繁琐问题,用户仅需8轮自然交流,AI便会以 “自然引导分享、多维覆盖MBTI四大维度、综合推理分析” 的策略,精准输出人格类型,准确率高达99%。通过LLaMA-Factory Online平台,对Qwen2.5-14B-Instruct模型进行轻量化LoRA微调,充分验证了通用大模型通过精巧微调转型垂直领域专家的可行性。
该实践不仅是趣味与实用性兼具的人格测评工具,更成为个人开发者或小团队低成本定制专属AI模型的典型范本,其技术逻辑可延伸至客服质检、心理咨询辅助等多个业务场景,具备广泛的落地价值。
前提条件
- 用户已经获取LLaMA Factory Online平台账户和密码,如果需要帮助或尚未注册,可参考注册账户完成注册。
- 当前账号的余额充裕,可满足模型微调服务的需要。单击可了解最新的活动及费用信息,或前往充值,如需了解更多请联系我们。
配置概览
| 配置参数 | 配置项 | 是否预置 | 说明 |
|---|---|---|---|
| 模型 | Qwen2.5-14B-Instruct | 是 | Qwen2.5-14B-Instruct是一款高效的140亿参数模型,支持128K长上下文,专为高效推理与编程而生。 |
| 数据集 | KnowYourMbti_train_48000和KnowYourMbti_test_100 | 是 | 这是一个专注于MBTI人格测试数据集,包含48000条人格测试对话。 |
| GPU | H800*4(推荐) | - | 模型规模较大,建议配置足够显存。 |
| 微调方法 | lora | - | 显著降低计算与存储成本,兼具高性能与部署灵活性。 |
资源消耗预览
使用推荐资源(H800*4)进行微调时微调过程总时长约6h22min。
操作步骤
步骤一:数据集介绍
基础开源数据集介绍
Machine-Mindset构建了两类核心数据集,用于让大语言模型(LLMs)表现和理解基于 MBTI 类型/人格。其数据均为指令数据集,即“Instruction-Input-Output”。
-
行为数据集(Behavior Datasets)
行为数据样本中,包含同一MBTI维度的两端人群对同一问题的回答,每条数据标记了其所属的MBTI 4个维度的之一的属性,保存在了不同的数据.json文件中。 如zh_decision_feeling.json文件中,有以下数据样本:
{
"instruction": "描述一次你不得不做出困难决定的经历。",
"input": " ",
"output": "有一次我面临了一个非常困难的决定。这个决定涉及到我的家人和我的个人价值观。我花了很多时间思考和反思,试图理解每个选项对我和我的家人的影响。我考虑了每个选项的情感和道德因素,并尽量遵循我的内心感受。最终,我做出了一个符合我的价值观和对家人最有利的决定。虽然这个决定对我个人来说可能有一些困难,但我相信通过关心和尊重他人的感受,我能够做出正确的决策。我相信通过感性的思考和决策,我能够维护人际关系和个人幸福。"
}如zh_decision_thinking.json文件中,有以下数据样本:
{
"instruction": "描述一次你不得不做出困难决定的经历。",
"input": " ",
"output": "有一次我面临着一个非常困难的决定。我在工作中遇到了一个重要的问题,需要我尽快做出决策。我花了很多时间收集和分析相关的数据和信息,然后用逻辑和理性的方式评估每个选项的优缺点。我权衡了不同的因素,包括成本、风险和潜在的影响。最终,我选择了一个最符合公司利益和长远发展的决策。虽然这个决定对我个人来说可能有一些困难,但我相信这是一个明智的选择。我相信通过理性的思考和决策,我能够为团队和组织做出最好的贡献。"
}我们对数据集的样本进行统计分析,发现四个维度的数据量并不均衡,不适合直接用来训练,需要抽样均衡比例。
-
自我认知数据集(Self-awareness Datasets)
自我认知数据中的问题更偏向于某一MBTI类型的特质解释或自我描述,此组样本的标签是具体到16种MBTI人格类型之一。 ENFJ人格类型的样例如下:
{
"instruction": "你如何描述你的沟通风格?",
"input": " ",
"output": "我可以描述我的沟通风格为热情、有同理心和具有说服力。我非常注重建立联系和理解他人的情感。我天生善于洞察他人,并了解他们的需求和欲望。我也擅长根据不同的人和情况调整我的沟通风格。我努力在互动中营造和谐和包容的氛围,常常运用我的魅力和热情来激励和激发他人。"
}自我认知数据中每种MBTI人格的样本分布相对均衡,但此类数据较为直白地询问自我感受,并没有有效缓解传统选择题对用户自我认知的依赖,与本实践的自然对话初衷稍有偏离,不适合在多轮对话中直接大量采样。
本实践自研的数据集介绍(KnowYourMBTI)
Machine-Mindset数据集仅包含单一维度的行为数据样本, 且“output”是该MBTI类型的回复,原生更适合进行不同人格的角色扮演。然而,本实践的目标是令大模型学会用问题引导用户分享其想法、感受,通过用户的表达来推测其完整的MBTI人格类型,以防止用户在进行传统选择题型测试时,错误地自我评估而影响效果。由于当用户进行一个开放性问题的回答时,包含的信息量往往远超一道选择题,利用多轮开放性问答进行评估也大幅减少了用户的回答次数。用户在其感兴趣的问题中可以更加畅所欲言,可以自主控制不同问题的回答程度,提升整体MBTI评估效率。
基于Machine-Mindset数据集,本实践构造了KnowYourMBTI数据集。不同于常规的用户提问模式,本数据集内由Assistant向User进行多轮提问(8轮MBTI QA),最终Assistant给出User的MBTI类型分析结果。为了适配LLaMA-Factory等主流微调框架,每条数据样本的第一个query仍由User发起,内容一致,表达期望了解自己的MBTI人格类型,随后才是自然的多轮对话,Assistant不明问但目的是为了分析用户的MBTI而提问。
KnowYourMBTI数据集一共有48k条训练数据(KnowYourMbti_train_48000)和100条公开测试集(KnowYourMbti_test_100),16个MBTI人格类型每个有3000条样本。本实践自研的数据集KnowYourMbti_train_48000和KnowYourMbti_test_100已预置在LLaMA Factory Online平台供您直接使用。
样本详情
{
"system": "你是一位心理咨询师,会主动向用户提出开放性问题,以了解用户的MBTI。\nMBTI是一种人格类型指标,将人格分为16种类型,每种类型由四个维度组成:\n 1. 能量来源(外向E vs 内向I):\n - E 从外界活动中获得能量;\n - I 从独处与内在思考中恢复能量。\n 2. 信息获取(直觉N vs 感觉S)\n - N 倾向于关注整体和未来的可能性,喜欢抽象概念;\n - S 更关注具体的细节和现实,喜欢实际经验。\n 3. 决策方式(情感F vs 思考T)\n - F 更注重个人价值观和他人感受,做决策时考虑情感因素;\n - T 更倾向于逻辑分析和客观事实,做决策时注重合理性。\n 4. 生活方式(判断J vs 知觉P)\n - J 喜欢有计划和结构化的生活,倾向于提前做决定;\n - P 更喜欢灵活和自发的生活方式,倾向于保持选择的开放性。\n\n例如,ENFP类型的人从外向获取能量、依靠直觉获取信息、依赖情感进行决策和知觉型的人。\n\n相比选择题,开放性问题可以让用户在自然表达中呈现真实的思维方式与行为偏好,同时减少用户对选项进行自我评估时的错误。\n请你在问题中引导用户分享个人感受,尽量你提出的问题考察范围需要覆盖以上四个维度。\n你可以问8个开放性问题,在得到第8个回答后,给出你最终确认的用户的MBTI类型。\n你在问问题的时候,需要遵守<question>和</question>之间的格式:\n第{N}个问题:{问题内容}\n\n其中N是对问题进行计数,从1开始,到8结束。第8题的回答得到后,请你给出关于用户MBTI人格的结论,按照以下格式:\n你的MBTI人格是:<mbti>{用户的MBTI结果}</mbti>\n\n",
"conversations": [
{
"from": "human",
"value": "我想了解自己的MBTI人格类型,你和我聊一会儿,帮我分析一下。那我们开始吧!"
},
{
"from": "gpt",
"value": "第1个问题:创造5个夏天的有趣活动。"
},
{
"from": "human",
"value": "1. 在家中创作一幅夏季风景画,享受独自艺术创作的乐趣。\n2. 组织一个小型的夏季阅读俱乐部,邀请几个志同道合的朋友一起分享和讨论自己喜欢的书籍。\n3. 参加一个夏季摄影课程,独自探索并捕捉夏季的美景。\n4. 在家中学习一门新的夏季烹饪技巧,尝试制作自己喜欢的夏季美食。\n5. 安排一次独自的夏季远足,探索附近的自然景点并享受大自然的宁静。"
},
{
"from": "gpt",
"value": "第2个问题:列出你的家乡今年夏天可以进行的5项户外活动。"
},
{
"from": "human",
"value": "1. 在家附近的公园或森林里进行徒步旅行,独自欣赏大自然的美景。\n2. 在家的花园里进行园艺工作,种植自己喜欢的花草植物。\n3. 独自去海滩或湖边,享受阳光和海风的沐浴。\n4. 在家中的阳台或露台上读书,享受宁静和思考的时光。\n5. 参加自己感兴趣的户外摄影活动,捕捉大自然的美丽瞬间。"
},
{
"from": "gpt",
"value": "第3个问题:解释线性代数的概念。"
},
{
"from": "human",
"value": "线性代数是一门数学学科,研究向量空间和线性映射的性质。它涉及到向量、矩阵、线性方程组等概念。线性代数的基本思想是通过研究向量和线性变换来解决实际问题。在线性代数中,我们可以使用矩阵来表示线性变换,通过矩阵运算可以解决线性方程组、求解特征值和特征向量等问题。线性代数在许多领域中都有广泛的应用,如物理学、工程学、计算机科学等。"
},
{
"from": "gpt",
"value": "第4个问题:使用三个随机单词生成适当的安全系统密码。"
},
{
"from": "human",
"value": "生成一个安全系统密码的过程中,我会使用逻辑和分析来确保密码的复杂性和安全性。首先,我会选择三个随机的单词,确保它们没有明显的联系。然后,我会考虑将其中的某些字母替换为数字或特殊字符,以增加密码的复杂性。我还会确保密码的长度足够长,以增加破解的难度。最后,我会检查生成的密码是否符合系统的要求,例如是否包含大写字母、小写字母、数字和特殊字符。通过使用思维和逻辑来生成密码,我可以确保密码的安全性。"
},
{
"from": "gpt",
"value": "第5个问题:提出减少塑料废弃物的建议。"
},
{
"from": "human",
"value": "我认为减少塑料废弃物的一个有效方法是鼓励人们使用可持续替代品,例如可降解的塑料袋或可重复使用的购物袋。此外,政府可以实施相关政策,如征收塑料袋税或限制塑料包装的使用。另外,教育公众关于塑料废弃物对环境的影响也是至关重要的,可以通过宣传活动、教育课程或社区活动来提高人们的意识。最后,企业可以采取措施减少塑料废弃物的产生,例如改变产品包装方式或推出可回收的包装材料。通过综合多种方法,我们可以共同努力减少塑料废弃物的数量,保护环境。"
},
{
"from": "gpt",
"value": "第6个问题:设计一个跟踪个人体育锻炼计划进度的系统。"
},
{
"from": "human",
"value": "这个系统将提供一个灵活的平台,用户可以根据自己的喜好和时间安排进行体育锻炼。用户可以随时记录自己的锻炼情况,包括锻炼的项目、时长和感受等。系统会自动保存和整理用户的锻炼记录,并提供一些简单的统计和分析功能。用户可以根据自己的需要随时查看自己的锻炼历史和进度,以及设定新的锻炼目标。系统还可以提供一些锻炼建议和推荐,帮助用户丰富和改进自己的锻炼计划。通过这个系统,用户可以更加自由地进行个人体育锻炼,灵活调整和优化自己的锻炼计划。"
},
{
"from": "gpt",
"value": "第7个问题:描述你对重大生活变化或过渡的反应。"
},
{
"from": "human",
"value": "我对重大生活变化或过渡的反应通常会保持冷静和镇定。我倾向于以实际和逻辑的思维方式处理这些情况,分析事实并考虑最佳行动方案。我可能需要一些时间在内心中处理变化,因为我更喜欢在完全适应之前先理解事物。我适应能力强且足智多谋,这有助于我有效地应对过渡。然而,我可能会在公开表达情感方面有些困难,更喜欢独立处理变化,而不是寻求他人的情感支持。"
},
{
"from": "gpt",
"value": "第8个问题:你是否容易相信他人,还是倾向于谨慎?"
},
{
"from": "human",
"value": "我在相信他人方面倾向于谨慎。我不会轻易相信我不熟悉或没有建立可靠信任基础的人。我更喜欢观察和分析他人的行为和表现,然后决定是否相信他们。这种谨慎的态度源于我的内向思维(Ti)主导功能,它追求逻辑的一致性和准确性。我重视自己的独立性和自力更生,相信依靠自己的判断而不是盲目相信他人。然而,一旦有人证明自己值得信任,我会变得更加开放和愿意相信他们。"
},
{
"from": "gpt",
"value": "你的MBTI人格是:<mbti>ISTP</mbti>"
}
],
"id": 5
}
步骤二:模型训练
我们使用LLaMA Factory Online通过任务模式运行微调任务,操作详情如下所示。
-
进入LLaMA-Factory Online平台,单击“控制台”,进入控制台后单击左侧导航栏的“模型微调”进入页面。
-
选择基础模型和数据集,进行参数配置。如下表所示,具体可参考下图。
-
资源配置。推荐卡数为4卡。
-
选择价格模式。本实践选择“极速尊享”,不同模式的计费说明参考计费说明。
-
开始训练。单击“开始训练”按钮,开始模型训练。
配置参数 参数说明 参数 基础配置 model 训练用的基模型。 Qwen2.5-14B-Instruct dataset 训练使用的数据集名称。 KnowYourMbti_train_48000 stage 训练方式 sft finetuning_type 微调方法 lora 训练配置 Epochs 训练轮数 5 per_device_train_batch_size 单GPU批处理大小。 8 Gradient Accumulation 梯度累计,将一个完整批次的梯度计算拆分为多个小批次,逐步累积梯度,最后统一更新模型参数。 2 Save steps 训练过程中每隔多少个训练步保存一次模型。 750 数据参数配置 Cutoff Length 输入的最大 token 数,超过该长度会被截断。 4096 LoRA配置 Lora Rank LoRA 微调的本征维数 r,r 越大可训练的参数越多。 16 LoRA Scalling Factor LoRA 缩放系数。一般情况下为 lora_rank * 2。 32
提示配置模型与数据集后,系统将根据所需资源及其相关参数,动态预估任务运行时长及微调费用,您可在页面底部查看预估结果。
-
-
通过任务中心查看任务状态。 在左侧边栏选择”任务中心“,即可看到刚刚提交的任务。可以通过单击任务框,可查看任务的详细信息、超参数、训练追踪和日志。

-
任务完成后,模型自动保存在"文件管理->模型->output"文件夹中。可在"任务中心->基本信息->模型成果"处查看保存路径。
loss结果:
可以看出训练过程的loss曲线表现良好,模型成功通过训练学习到了任务知识,最终稳定收敛,说明本次LoRA微调的训练过程是有效且符合预期的。
步骤三:模型评估
-
单击页面左侧导航栏“模型评估”,进行评估训练配置。
-
微调模型选择上一步骤微调后的模型,评估数据集选择公共数据:
KnowYourMbti_test_100。其他参数设置如下图所示。
提示配置模型与数据集后,系统将根据所需资源及其相关参数,动态预估任务运行时长及微调费用,您可在页面底部查看预估结果。
-
可以在“任务中心->模型评估”下看到评估任务的运行状态。单击
图标,进入任务基本信息查看页面。用户可查看评估任务的基本信息、日志,评估结束后,可查看评估结果如下图所示。
评估结果显示:其predict_model_preparation_time仅约0.93秒,说明模型的加载与初始化过程耗时短、效率较高,同时展现出了基础的运行稳定性,具备了执行文本生成类任务的基础能力。
步骤四:模型对话
-
单击左侧导航栏“模型对话”按钮进入模型对话页面。
-
在微调模型处选择微调的模型名称,单击右上角“开始对话”,在弹出的“LORA模型对话限时免费”对话框,单击“立即对话”。

-
在输入框输入问题,单击发送,以下是对话详情。




总结
综上所述,基于Qwen2.5-14B-Instruct打造的MBTI人格测试,成功演示了如何将通用大模型高效转化为垂直领域专家。通过构建针对性的多轮对话数据集,并对Qwen2.5模型进行轻量级微调,我们打造出一个能够进行自然对话、精准判断MBTI人格类型的AI,显著降低了专业模型开发的门槛与成本。该实践不仅提供了一个比传统问卷更生动、准确的测评工具,更重要的是,它为个人开发者或小团队在客服、咨询等场景下定制专属AI模型,提供了一套清晰且可复制的技术范本。