网站建设方案书模板下载,建网站软件有哪些,新乡做新网站,最牛的html5网站建设文章目录 数据模型准备基于网页的简单微调基于网页的简单评测基于网页的简单聊天 LLaMA-Factory是一个非常好用的无代码微调框架#xff0c;不管是在模型、微调方式还是参数设置上都提供了非常完备的支持#xff0c;下面是对微调全过程的一个记录。 数据模型准备
微调时一般… 文章目录 数据模型准备基于网页的简单微调基于网页的简单评测基于网页的简单聊天 LLaMA-Factory是一个非常好用的无代码微调框架不管是在模型、微调方式还是参数设置上都提供了非常完备的支持下面是对微调全过程的一个记录。 数据模型准备
微调时一般需要准备三个数据集一个是自我认知数据集让大模型知道自己是谁一个是特定任务数据集微调时需要完成的目标任务一个是通用任务数据集保持大模型的通用能力防止变傻。前两个一般要自己定义最后一个用现成的就行。
自定义数据集可采用alpaca和sharegpt格式这里采用的是alpaca格式
[{instruction: 用户指令必填,input: 用户输入选填,output: 模型回答必填,system: 系统提示词选填,history: [[第一轮指令选填, 第一轮回答选填],[第二轮指令选填, 第二轮回答选填]]}
]由于不需要考虑多轮对话所以history可以不要这里采用了两种数据集的组织方式一种是只有instruction和output把问题作为instruction另外一种是把问题作为input把回答问题这一要求作为instruction。这两种格式分别记为format2和format3。
在生成完自定义的问答json文件之后根据以下代码计算其sha1值 import hashlibdef calculate_sha1(file_path):sha1 hashlib.sha1()try:with open(file_path, rb) as file:while True:data file.read(8192) # Read in chunks to handle large filesif not data:breaksha1.update(data)return sha1.hexdigest()except FileNotFoundError:return File not found.# 使用示例
file_path ./data/self_cognition_modified.json # 替换为您的文件路径
sha1_hash calculate_sha1(file_path)
print(SHA-1 Hash:, sha1_hash)将json文件放入data文件夹下同步修改dataset_info.json文件输入新增的文件名称和对应的sha1值。
测试的大模型可以使用这些注意要下载最新版老版的模型结构不太匹配。 基于网页的简单微调
在后台执行CUDA_VISIBLE_DEVICES0 python src/train_web.py命令成功开启网页设置如下手动输入模型路径。 训练完成之后的界面可以查看损失函数
基于网页的简单评测
原始模型评测 微调后模型评测 首先加载lora 可以看到微调之后的模型在各个指标上有了显著提升
基于网页的简单聊天
切换到Chat并点击加载模型后可以进入聊天