saas建站平台源码,wordpress 安装主题 无法创建目录,公司主页怎么写,网站模块分析书生浦语大模型 第二节#xff1a;Demo实践
视频链接#xff1a;Demo实践视频
文档链接#xff1a;教程文档
一、实践内容#xff1a;
部署InternLM2-Chat-1.8B模型进行智能对话部署实战营优秀作品 八戒-Chat-1.8B 模型通过 InternLM2-Chat-7B 运行 Lagent 智能体 Demo…书生·浦语大模型 第二节Demo实践
视频链接Demo实践视频
文档链接教程文档
一、实践内容
部署InternLM2-Chat-1.8B模型进行智能对话部署实战营优秀作品 八戒-Chat-1.8B 模型通过 InternLM2-Chat-7B 运行 Lagent 智能体 Demo实践部署 浦语·灵笔2 模型
二、部署 InternLM2-Chat-1.8B 模型进行智能对话
2.1 配置基础环境
开发机配置教程开发机配置教程
进入开发机后输入命令
studio-conda -o internlm-base -t demo
# 与 studio-conda 等效的配置方案
# conda create -n demo python3.10 -y
# conda activate demo
# conda install pytorch2.0.1 torchvision0.15.2 torchaudio2.0.2 pytorch-cuda11.7 -c pytorch -c nvidia配置conda环境后进行环境包的安装
conda activate demo
pip install huggingface-hub0.17.3
pip install transformers4.34
pip install psutil5.9.8
pip install accelerate0.24.1
pip install streamlit1.32.2
pip install matplotlib3.8.3
pip install modelscope1.9.5
pip install sentencepiece0.1.992.2 下载 InternLM2-Chat-1.8B 模型
创建demo文件夹及文件
mkdir -p /root/demo
touch /root/demo/cli_demo.py
touch /root/demo/download_mini.py
cd /root/demo点击download_mini.py 文件输入下面代码
import os
from modelscope.hub.snapshot_download import snapshot_download# 创建保存模型目录
os.system(mkdir /root/models)# save_dir是模型保存到本地的目录
save_dir/root/models#下载模型
snapshot_download(Shanghai_AI_Laboratory/internlm2-chat-1_8b, cache_dirsave_dir, revisionv1.1.0)
运行文件下载模型
2.3 运行cli_demo
点击 /root/demo/cli_demo.py 文件复制以下代码
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM# 模型路径
model_name_or_path /root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b# 文本分词器
tokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue, device_mapcuda:0)# 加载模型
model AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_codeTrue, torch_dtypetorch.bfloat16, device_mapcuda:0)# 推理模式
model model.eval()system_prompt You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
messages [(system_prompt, )]print(Welcome to InternLM chatbot, type exit to exit.)while True:# 用户输入input_text input(\nUser )input_text input_text.replace( , )if input_text exit:break# 预测length 0for response, _ in model.stream_chat(tokenizer, input_text, messages):if response is not None:print(response[length:], flushTrue, end)length len(response)
transformers 一个用于自然语言处理NLP任务如文本分类、命名实体识别机器翻译等提供了预训练的语言模型如BERT、GPT同时用于模型训练、评估和推理的工具和API的Python库。
AutoTokenizer.from_pretrained() 与其他神经网络一样Transformer 模型不能直接处理原始文本故使用分词器进行预处理。
使用AutoTokenizer类及其from_pretrained()方法。
例程
from transformers import AutoTokenizermodel_name_or_path /root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8btokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue, device_mapcuda:0)raw_input [你好,我是希希]input tokenizer(raw_input, padding True, truncation True, return_tensorspt)print(input)输出
{input_ids: tensor([[ 2, 2, 1, 77230],[ 1, 68734, 60983, 60983]]), attention_mask: tensor([[0, 0, 1, 1],[1, 1, 1, 1]])
}input_ids词汇表中输入序列标记的索引可以理解为词向量
attention_mask0表示屏蔽1表示未屏蔽。
在示例中tokenizer函数的padding参数为True意为将文本按最长的序列补齐。
问题词向量如何进行编码Attention_mask如何使用
AutoModelForCausalLM.from_pretrained() 用于加载模型有两种方式
加载模型但不加载权重
例程
model AutoModelForCausalLM.from_pretrained(gpt2)保存文件后运行命令python /root/demo/cli_demo.py即可开始交互。
三、部署实战营优秀作品 八戒-Chat-1.8B 模型 八戒-Chat-1.8B、Chat-嬛嬛-1.8B、Mini-Horo-巧耳 均是在第一期实战营中运用 InternLM2-Chat-1.8B 模型进行微调训练的优秀成果。各模型链接如下
八戒-Chat-1.8Bhttps://www.modelscope.cn/models/JimmyMa99/BaJie-Chat-mini/summaryChat-嬛嬛-1.8Bhttps://openxlab.org.cn/models/detail/BYCJS/huanhuan-chat-internlm2-1_8bMini-Horo-巧耳https://openxlab.org.cn/models/detail/SaaRaaS/Horowag_Mini
3.1 配置环境
获取Demo文件
conda activate demo
cd /root/
git clone https://gitee.com/InternLM/Tutorial -b camp2
# git clone https://github.com/InternLM/Tutorial -b camp2
cd /root/Tutorial下载模型
python /root/Tutorial/helloworld/bajie_download.py下载完成后输入运行命令
streamlit run /root/Tutorial/helloworld/bajie_chat.py --server.address 127.0.0.1 --server.port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。 打开 PowerShell 后先查询端口再根据端口键入命令。 输入命令
# 从本地使用 ssh 连接 studio 端口
# 将下方端口号 38374 替换成自己的端口号
ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p (自己端口号)打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。
四、通过 InternLM2-Chat-7B运行 Lagent智能体 Demo Lagent 是一个轻量级、开源的基于大语言模型的智能体agent框架支持用户快速地将一个大语言模型转变为多种类型的智能体并提供了一些典型工具为大语言模型赋能。 4.1 配置环境
同上述模型环境配置
conda activate demo
cd /root/demo
git clone https://gitee.com/internlm/lagent.git
# git clone https://github.com/internlm/lagent.git
cd /root/demo/lagent
git checkout 581d9fb8987a5d9b72bb9ebd37a95efd47d479ac
pip install -e . # 源码安装4.2 使用 Lagent运行 InternLM2-Chat-7B模型为内核的智能体
打开 lagent 路径
cd /root/demo/lagent
在 terminal 中输入指令构造软链接快捷访问方式
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b
打开 lagent 路径下 examples/internlm2_agent_web_demo_hf.py 文件并修改对应位置 (71行左右) 代码
# 其他代码...
value/root/models/internlm2-chat-7b
# 其他代码...输入运行命令 - 点开 6006 链接后大约需要 5 分钟完成模型加载
streamlit run /root/demo/lagent/examples/internlm2_agent_web_demo_hf.py --server.address 127.0.0.1 --server.port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。 打开 PowerShell 后先查询端口再根据端口键入命令。 输入命令
# 从本地使用 ssh 连接 studio 端口
# 将下方端口号 38374 替换成自己的端口号
ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p (自己端口号)打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。
五、实践部署浦语·灵笔2模型
5.1 环境配置
conda activate demo
# 补充环境包
pip install timm0.4.12 sentencepiece0.1.99 markdown22.4.10 xlsxwriter3.1.2 gradio4.13.0 modelscope1.9.5#下载相关代码
cd /root/demo
git clone https://gitee.com/internlm/InternLM-XComposer.git
# git clone https://github.com/internlm/InternLM-XComposer.git
cd /root/demo/InternLM-XComposer
git checkout f31220eddca2cf6246ee2ddf8e375a40457ff626#创建软链接
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-vl-7b /root/models/internlm-xcomposer2-vl-7b5.2 图文写作
输入命令启动InternLM-XComposer
cd /root/demo/InternLM-XComposer
python /root/demo/InternLM-XComposer/examples/gradio_demo_composition.py \
--code_path /root/models/internlm-xcomposer2-7b \
--private \
--num_gpus 1 \
--port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。 打开 PowerShell 后先查询端口再根据端口键入命令。 输入命令
# 从本地使用 ssh 连接 studio 端口
# 将下方端口号 38374 替换成自己的端口号
ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p (自己端口号)打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。
5.3 图片理解
关闭并重新启动一个新的 terminal继续输入指令启动 InternLM-XComposer2-vl
conda activate democd /root/demo/InternLM-XComposer
python /root/demo/InternLM-XComposer/examples/gradio_demo_chat.py \
--code_path /root/models/internlm-xcomposer2-vl-7b \
--private \
--num_gpus 1 \
--port 6006打开 http://127.0.0.1:6006 后上传图片等待加载完成即可进行对话。