当前位置: 首页 > news >正文

同性性做视频网站化妆品网站网页设计

同性性做视频网站,化妆品网站网页设计,做期货财经网站需要哪些资质,深圳宝安天气预报文章目录 一、问答数据集生成器使用设置问题启动使用产出效果 二、进行微调第一步#xff1a;下载模型第二步#xff1a;项目准备2.1 下载项目2.2 然后使用 pip 安装依赖2.3 开始 第三步进行微调3.1安装相关依赖3.2准备数据集#xff0c;并且上传3.3对数据集进行预处理3.4 进… 文章目录 一、问答数据集生成器使用设置问题启动使用产出效果 二、进行微调第一步下载模型第二步项目准备2.1 下载项目2.2 然后使用 pip 安装依赖2.3 开始 第三步进行微调3.1安装相关依赖3.2准备数据集并且上传3.3对数据集进行预处理3.4 进行微调 第四步进行测试 四、微调24.1下载LAMA4.2搭建环境4.3修改数据集4.4 开始训练4.4.1页面训练4.4.2直接脚本微调 4.5模型合并命令行页面 4.6 进行测试1、API 服务测试2、命令行测试3、浏览器测试4、web端进行测试 一、问答数据集生成器使用 感谢开源 项目地址https://github.com/huang1332/finetune_dataset_maker.git 备用地址 https://gitee.com/yang_hu_cheng/finetune_dataset_maker.git 设置问题 启动使用 pip install streamlit pip install openaistreamlit run dataset.py --server.port 2323产出效果 二、进行微调 第一步下载模型 local_dir_root 保存位置ZhipuAI/chatglm3-6b需要下载的模型 from modelscope.hub.snapshot_download import snapshot_downloadlocal_dir_root /root/autodl-tmp/models_from_modelscope snapshot_download(ZhipuAI/chatglm3-6b, cache_dirlocal_dir_root)第二步项目准备 2.1 下载项目 git clone https://github.com/THUDM/ChatGLM3.git cd ChatGLM32.2 然后使用 pip 安装依赖 可以创建一个环境可省 conda create --name chatchat python3.10 conda activate chatchat安装依赖 pip install -r requirements.txt调整一下就可以用了 2.3 开始 启动第二个好看一些 nohup streamlit run web_demo2.py output.log 也可以启动第一个 nohup python web_demo.py output.log 第三步进行微调 3.1安装相关依赖 pip install transformers4.30.2 accelerate sentencepiece astunparse deepspeed3.2准备数据集并且上传 两个文件夹里面的内容都是一样的 {content: 类型#裤*版型#宽松*风格#性感*图案#线条*裤型#阔腿裤, summary: 宽松的阔腿裤这两年真的吸粉不少明星时尚达人的心头爱。毕竟好穿时尚谁都能穿出腿长2米的效果宽松的裤腿当然是遮肉小能手啊。上身随性自然不拘束面料亲肤舒适贴身体验感棒棒哒。系带部分增加设计看点还让单品的设计感更强。腿部线条若隐若现的性感撩人。颜色敲温柔的与裤子本身所呈现的风格有点反差萌。}3.3对数据集进行预处理 ./scripts/format_advertise_gen.py --path AdvertiseGen/train.json出现这个说明处理好了 预处理结束后其实就是对格式进行改造 3.4 进行微调 MAX_STEP就是让大模型重复多少遍死记硬背 BASE_MODEL_PATH模型路径最后有个\ ./scripts/finetune_ds_multiturn.sh # 全量微调 ./scripts/finetune_pt_multiturn.sh # P-Tuning v2 微调全量微调 ./scripts/finetune_ds_multiturn.sh 中的配置MAX_SEQ_LEN2048, DEV_BATCH_SIZE16, GRAD_ACCUMULARION_STEPS1恰好用满 4 * 80GB 显存。 这里就是用P-Tuning v2 微调 ./scripts/finetune_pt_multiturn.sh第四步进行测试 python inference.py \--pt-checkpoint /root/autodl-tmp/ChatGLM3-New/finetune_demo/output/advertise_gen_pt-20231121-175741-128-2e-2/ \--model /root/autodl-tmp/models_from_modelscope/ZhipuAI/chatglm3-6b/微调成功。撒花 四、微调2 LLaMA 4.1下载LAMA git clone https://github.com/hiyouga/LLaMA-Factory.git4.2搭建环境 conda create -n llama_factory python3.10 conda activate llama_factory cd LLaMA-Factory pip install -r requirements.txt4.3修改数据集 编辑|新建数据集可以选择这个也可以自建 里面是json格式 查看数据集 4.4 开始训练 4.4.1页面训练 使用 启动 LLaMA Board。该模式目前仅支持单卡训练 默认端口号是7860 cd /root/autodl-tmp/LLaMA-Factory CUDA_VISIBLE_DEVICES0 python src/train_web.py 4.4.2直接脚本微调 CUDA_VISIBLE_DEVICES0 python src/train_bash.py \--stage sft \--model_name_or_path /root/autodl-tmp/models_from_modelscope/ZhipuAI/chatglm3-6b \--do_train True \--finetuning_type lora \--template chatglm3 \--flash_attn False \--shift_attn False \--dataset_dir data \--dataset self_cognition \--cutoff_len 1024 \--learning_rate 5e-05 \--num_train_epochs 3.0 \--max_samples 100000 \--per_device_train_batch_size 1 \--gradient_accumulation_steps 4 \--lr_scheduler_type cosine \--max_grad_norm 1.0 \--logging_steps 5 \--save_steps 100 \--warmup_steps 336 \--neft_alpha 0 \--train_on_prompt True \--upcast_layernorm False \--lora_rank 8 \--lora_dropout 0.1 \--lora_target query_key_value \--resume_lora_training True \--output_dir saves/ChatGLM3-6B-Chat/lora/2023-11-22-11-02-17 \--fp16 True \--val_size 0.247 \--evaluation_strategy steps \--eval_steps 100 \--load_best_model_at_end True \--plot_loss True CUDA_VISIBLE_DEVICES0 python src/train_bash.py \--stage sft \--model_name_or_path /root/autodl-tmp/models_from_modelscope/ZhipuAI/chatglm3-6b/ \--do_train \--overwrite_output_dir \--template chatglm3 \4.5模型合并 命令行 model_name_or_path 原始模型路径template 模板finetuning_type 微调类型checkpoint_dir 训练模型结果export_dir 导出文件夹 python src/export_model.py \--model_name_or_path path_to_llama_model \--template default \--finetuning_type lora \--checkpoint_dir path_to_checkpoint \--export_dir path_to_export举例 python src/export_model.py \--model_name_or_path /root/autodl-tmp/models_from_modelscope/ZhipuAI/chatglm3-6b/ \--template chatglm3 \--finetuning_type lora \--checkpoint_dir /root/autodl-tmp/LLaMA-Factory/export_chatglm3 \--export_dir lora_merge_chatglm3 页面 4.6 进行测试 直接使用合并的模型 就不要用checkpoint_dir参数 1、API 服务测试 python src/api_demo.py \--model_name_or_path path_to_llama_model \--template default \--finetuning_type lora \--checkpoint_dir path_to_checkpoint2、命令行测试 python src/cli_demo.py \--model_name_or_path path_to_llama_model \--template default \--finetuning_type lora \--checkpoint_dir path_to_checkpoint举例 python src/cli_demo.py \--model_name_or_path /root/autodl-tmp/models_from_modelscope/ZhipuAI/chatglm3-6b/ \--template chatglm3 \--finetuning_type lora \--checkpoint_dir /root/autodl-tmp/LLaMA-Factory/saves/ChatGLM3-6B-Chat/lora/2023-11-22-11-02-173、浏览器测试 python src/web_demo.py \--model_name_or_path path_to_llama_model \--template default \--finetuning_type lora \--checkpoint_dir path_to_checkpoint4、web端进行测试 刷新模型断点选择训练好的模型 选择chat 加载模型 结果产出
http://www.pierceye.com/news/669020/

相关文章:

  • 网站关键词先后论坛网站在线生成
  • 无为建设局网站安装wordpress xampp
  • 广药网站建设试卷wordpress人力资源模板下载
  • 电商网站规划的开发背景明年做那个网站能致富
  • 网站建设及托管合同wordpress页面批量生成二维码
  • 益阳市住房和建设局 网站哪些网站可做矿机期货
  • 网站开发哪里有html5网站赏析
  • 襄阳网站建设八零后做的网站怎么上传到网上运行
  • 学网站开发培训学校专业集团门户网站建设费用
  • 加快政务公开网站建设知名的摄影网站有哪些
  • 任县网站建设网络公司桐城网站开发
  • linux服务器做网站软装设计图效果图
  • 个人网站可以做商城吗被官方认可赚钱软件
  • 自己可以做网站服务器室内设计整套方案图
  • 网站建设商城网站微信广告代理
  • 创建网站的方案企业营销策划公司
  • 做彩铃的网站个人博客网站建设
  • 正黄集团博弘建设官方网站达州高端网站建设
  • 七台河建设网站wordpress logo制作
  • 怎么设计一个自己的网站番禺网站建设效果
  • 网站哪家做的好淄博网站开发选网泰
  • 网站建设与制作与维护ppt百度广告联盟收益
  • 在线网站建设费用是多少大学生活动策划书模板
  • 动物网站建设wordpress无法跳转正确页面
  • 上海市建设工程 安全协会网站wordpress会员微信支付宝
  • pc网站转换手机网站代码桂林工作网招聘
  • 营销型网站建设的要素怎么建网站赚钱
  • 成都网站建设学习郑州制作网站推荐
  • 网站建设 镇江丹阳php网站开发实例教程代码
  • 佛山外贸网站建设方案专业网站建设系统