当前位置: 首页 > news >正文

南昌网站建设索q.479185700wordpress分享有礼

南昌网站建设索q.479185700,wordpress分享有礼,南京有哪些做网站的公司,创新的沈阳网站建设FastChat是用于对话机器人模型训练、部署、评估的开放平台。体验地址为#xff1a;https://chat.lmsys.org/#xff0c;该体验平台主要是为了收集人类的真实反馈#xff0c;目前已经支持30多种大模型#xff0c;已经收到500万的请求#xff0c;收集了10万调人类对比大模型…       FastChat是用于对话机器人模型训练、部署、评估的开放平台。体验地址为https://chat.lmsys.org/该体验平台主要是为了收集人类的真实反馈目前已经支持30多种大模型已经收到500万的请求收集了10万调人类对比大模型的数据可以在排行榜https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard进行查看。 FastChat核心特性包括 提供了SOTA模型比如VicunaFastChat-T5的模型权重训练代码评估代码分布式多模型部署系统自带Web UI和OpenAI兼容的RESTful APIs。 一、FastChat安装 方法一pip安装 pip3 install fschat[model_worker,webui] 方法二源码安装 Step1 克隆源码并切换到对应的目录下 git clone https://github.com/lm-sys/FastChat.gitcd FastChat 如果是mac还需要执行如下代码 brew install rust cmake Step2 安装相关的包​​​​​​​ pip3 install --upgrade pip # enable PEP 660 supportpip3 install -e .[model_worker,webui] 二、FastChat聊天应用 下面展示一下不同模型以及不同大小启用聊天功能 Vicuna模型 模型大小聊天命令Hugging Face 7Bpython3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5lmsys/vicuna-7b-v1.57B-16kpython3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5-16klmsys/vicuna-7b-v1.5-16k13Bpython3 -m fastchat.serve.cli --model-path lmsys/vicuna-13b-v1.5lmsys/vicuna-13b-v1.513B-16kpython3 -m fastchat.serve.cli --model-path lmsys/vicuna-13b-v1.5-16klmsys/vicuna-13b-v1.5-16k33Bpython3 -m fastchat.serve.cli --model-path lmsys/vicuna-33b-v1.3lmsys/vicuna-33b-v1.3 PS对于16k模型需要transformers4.31。 LongChat 模型大小聊天命令Hugging Face7Bpython3 -m fastchat.serve.cli --model-path lmsys/longchat-7b-32k-v1.5lmsys/longchat-7b-32k FastChat-T5 模型大小聊天命令Hugging Face3Bpython3 -m fastchat.serve.cli --model-path lmsys/fastchat-t5-3b-v1.0lmsys/fastchat-t5-3b-v1.0 三、FastChat使用命令行进行推理 PS可以使用 --style rich 来启用富文本输出提高某些非 ASCII 内容的文本流传输质量。在某些终端上可能无法正常工作。 支持的模型 支持的模型有LLama 2, Vicuna, Alpaca, Baize, ChatGLM, Dolly, Falcon, FastChat-T5, GPT4ALL, Guanaco, MTP, OpenAssistant, OpenChat, RedPajama, StableLM, WizardLM等。查看支持的全部模型和如何添加新模型可以参考https://github.com/lm-sys/FastChat/blob/main/docs/model_support.md 单GPU 在单GPU下执行如下命令 python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 对于Vicuna-7B 模型大概需要14G显存对于Vicuna-13B模型大概需要28G显存如果显存不够可以参考https://github.com/lm-sys/FastChat#not-enough-memory 多GPU 支持多GPU并行推理命令如下 python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 --num-gpus 2 有时候”auto“策略在huggingface/transformers不能在多GPU间平衡因此最好增加参数”--max-gpu-memory“该参数可以指定每个gpu用于存储模型权重的最大内存。这允许它为激活分配更多的内存因此可以使用更长的上下文长度或更大的批处理大小。最好的命令是 python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 --num-gpus 2 --max-gpu-memory 8GiB 仅CPU 在单CPU下执行如下命令 python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 --device cpu 对于Vicuna-7B 模型大概需要30G内存对于Vicuna-13B模型大概需要60G内存。 如果使用AVX512_BF16/AMX加速CPU推理命令如下 CPU_ISAamx python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 --device cpu Metal Backend (带苹果Silicon 或AMD GPU的Mac电脑) python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 --device mps --load-8bit 参数”--device mps“在torch2.0情况下可以加速mac GPU运算参数”--load-8bit“可以量化为int8。Vicuna-7B在32GB内存的M1 Mac电脑 上推理时每秒会生成1 - 2个词。 Intel XPUIntel Data Center和Arc A-Series GPU 安装Intel Extension for PyTorchhttps://intel.github.io/intel-extension-for-pytorch/xpu/latest/tutorials/installation.html。设置OneAPI环境变量 source /opt/intel/oneapi/setvars.sh 使用 --device xpu 启用XPU/GPU加速。 python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.3 --device xpu Vicuna-7B 可以在Intel Arc A770 16GB上运行。 显存不足 对于显存不够的情况可以参考量化或者offload策略来部分解决比如在命令行加入参数”--load-8bit“或者”--cpu-offloading“ python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5 --load-8bit 四、FastChat使用WEB GUI进行推理 使用web UI提供服务需要三个主要组件与用户接口的web服务器、托管一个或多个模型的模型worker以及协调web服务器和模型worker的controller。更多信息可以参考https://github.com/lm-sys/FastChat/blob/main/docs/server_arch.md 启动controller python3 -m fastchat.serve.controller 启动模型worker python3 -m fastchat.serve.model_worker --model-path lmsys/vicuna-7b-v1.5 启动成功后会看到Uvicorn running on ...也可以通过如下命令来测试模型worker是否正确连接controller python3 -m fastchat.serve.test_message --model-name vicuna-7b-v1.5 启动Gradio Web服务器 python3 -m fastchat.serve.gradio_web_server 五、FastChat模型评估 FastChat使用多轮开放式问题来评估模型。为了实现评估过程的自动化建议采用像GPT-4这样的强大LLM评估模型的回复https://github.com/lm-sys/FastChat/blob/main/fastchat/llm_judge。 具体步骤如下 从不同的模型生成回答使用 qa_baseline_gpt35.py 获取ChatGPT的回答或者指定模型检查点并运行 get_model_answer.py 获取 Vicuna 和其他模型的回答 使用 GPT-4 生成评论使用 GPT-4 自动生成评论。如果您无法使用 GPT-4 API则可以手动执行此步骤 生成可视化数据运行 generate_webpage_data_from_table.py 生成静态网站的数据以便您可以可视化评估数据 可视化数据在 webpage 目录下提供一个静态网站。您可以使用 python3 -m http.server 在本地提供网站服务。 数据格式和贡献 采用JSON Lines 编码的数据格式进行评估该格式包括有关模型、提示、评论者、问题、回答和评论的信息。 六、FastChat模型微调 6.1 数据 Vicuna 是通过使用从 ShareGPT.com 上收集的约 7 万个用户共享对话使用 LLaMA 基础模型进行微调而创建的使用了公共的 API。为了确保数据质量将 HTML 转换回 Markdown并过滤掉一些不适当或低质量的样本。此外将较长的对话分割成适合模型最大上下文长度的较小段落https://github.com/lm-sys/FastChat/blob/main/docs/commands/data_cleaning.md。 目前可能不会发布 ShareGPT 数据集如果想尝试微调代码可以使用 dummy_conversation.jsonhttps://github.com/lm-sys/FastChat/blob/main/data/dummy_conversation.json中的一些虚拟对话来运行它可以按照相同的格式插入自己的数据。 6.2 代码和超参数 HyperparameterGlobal Batch SizeLearning rateEpochsMax lengthWeight decayVicuna-13B1282e-5320480 6.3 使用本地GPU微调Vicuna-7B模型 pip3 install -e .[train] 使用以下命令使用 4 个 A100 (40GB) 对 Vicuna-7B 进行训练​​​​​​​ torchrun --nproc_per_node4 --master_port20001 fastchat/train/train_mem.py \ --model_name_or_path meta-llama/Llama-2-7b-hf \ --data_path data/dummy_conversation.json \ --bf16 True \ --output_dir output_vicuna \ --num_train_epochs 3 \ --per_device_train_batch_size 2 \ --per_device_eval_batch_size 2 \ --gradient_accumulation_steps 16 \ --evaluation_strategy no \ --save_strategy steps \ --save_steps 1200 \ --save_total_limit 10 \ --learning_rate 2e-5 \ --weight_decay 0. \ --warmup_ratio 0.03 \ --lr_scheduler_type cosine \ --logging_steps 1 \ --fsdp full_shard auto_wrap \ --fsdp_transformer_layer_cls_to_wrap LlamaDecoderLayer \ --tf32 True \ --model_max_length 2048 \ --gradient_checkpointing True \ --lazy_preprocess True 参考文献 [1] https://github.com/lm-sys/FastChat [2] https://github.com/lm-sys/FastChat/blob/main/docs/openai_api.md [3] https://github.com/lm-sys/FastChat/blob/main/fastchat/serve/huggingface_api.py [4] https://github.com/lm-sys/FastChat/blob/main/docs/langchain_integration.md
http://www.pierceye.com/news/295397/

相关文章:

  • WordPress做的网站源代码网站备案失效
  • 承德网站制作与建设wordpress h5播放器
  • .net网站程序网站建设 报告
  • 中国做的电脑系统下载网站好互动网站
  • 网站使用培训方案网站后台工程师
  • 做网站优化找谁简单网站页面
  • 青岛做公司网站佛山网站建设锐艺传播
  • 江苏商城网站制作公司网站备案时间
  • 网站开发用到什么技术公司做影视网站侵权
  • 自己做网站大概多少钱唐山丰南建设局网站
  • 建设法律法规文本查询网站什么是建设型的网站
  • 如何设计一个购物网站如何免费网络营销推广
  • 网站制作服务好的商家做网站送的企业邮箱能用吗
  • 免费行情软件app网站排行企业内部网站如何建设
  • 沧州网络运营中心在哪里新的seo网站优化排名 网站
  • 米拓建站免费模板wordpress那个主题收录好
  • 网站后台中小型网站建设的基本流程
  • 一键做网站的软件爱互融网站开发合同
  • 平顶山市哪里有做网站的高端的扬中网站建设
  • 网站定制电话如何自己开公众号
  • app开发网站建设及开发专业济南网站建设价格
  • 网站建设新闻分享免费制作网站app
  • 海口网站建设高端wordpress 论坛那
  • 谁能帮我做网站百度推广登录平台怎么收费
  • 有关于网站建设的论文如何开发一个微信公众号
  • 深圳网站建制作网上写文章用什么软件
  • 网站模版自适应网站建设全包方案
  • 广州网站建设鞍山家电网站首页制作
  • 西安注册公司网站网站建设找a金手指
  • 浙江省住房和城乡建设厅网站打不开设计书籍频道开放说明