当前位置: 首页 > news >正文

saas建站平台源码wordpress 安装主题 无法创建目录

saas建站平台源码,wordpress 安装主题 无法创建目录,公司主页怎么写,网站模块分析书生浦语大模型 第二节#xff1a;Demo实践 视频链接#xff1a;Demo实践视频 文档链接#xff1a;教程文档 一、实践内容#xff1a; 部署InternLM2-Chat-1.8B模型进行智能对话部署实战营优秀作品 八戒-Chat-1.8B 模型通过 InternLM2-Chat-7B 运行 Lagent 智能体 Demo…书生·浦语大模型 第二节Demo实践 视频链接Demo实践视频 文档链接教程文档 一、实践内容 部署InternLM2-Chat-1.8B模型进行智能对话部署实战营优秀作品 八戒-Chat-1.8B 模型通过 InternLM2-Chat-7B 运行 Lagent 智能体 Demo实践部署 浦语·灵笔2 模型 二、部署 InternLM2-Chat-1.8B 模型进行智能对话 2.1 配置基础环境 开发机配置教程开发机配置教程 进入开发机后输入命令 studio-conda -o internlm-base -t demo # 与 studio-conda 等效的配置方案 # conda create -n demo python3.10 -y # conda activate demo # conda install pytorch2.0.1 torchvision0.15.2 torchaudio2.0.2 pytorch-cuda11.7 -c pytorch -c nvidia配置conda环境后进行环境包的安装 conda activate demo pip install huggingface-hub0.17.3 pip install transformers4.34 pip install psutil5.9.8 pip install accelerate0.24.1 pip install streamlit1.32.2 pip install matplotlib3.8.3 pip install modelscope1.9.5 pip install sentencepiece0.1.992.2 下载 InternLM2-Chat-1.8B 模型 创建demo文件夹及文件 mkdir -p /root/demo touch /root/demo/cli_demo.py touch /root/demo/download_mini.py cd /root/demo点击download_mini.py 文件输入下面代码 import os from modelscope.hub.snapshot_download import snapshot_download# 创建保存模型目录 os.system(mkdir /root/models)# save_dir是模型保存到本地的目录 save_dir/root/models#下载模型 snapshot_download(Shanghai_AI_Laboratory/internlm2-chat-1_8b, cache_dirsave_dir, revisionv1.1.0) 运行文件下载模型 2.3 运行cli_demo 点击 /root/demo/cli_demo.py 文件复制以下代码 import torch from transformers import AutoTokenizer, AutoModelForCausalLM# 模型路径 model_name_or_path /root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b# 文本分词器 tokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue, device_mapcuda:0)# 加载模型 model AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_codeTrue, torch_dtypetorch.bfloat16, device_mapcuda:0)# 推理模式 model model.eval()system_prompt You are an AI assistant whose name is InternLM (书生·浦语). - InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless. - InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文. messages [(system_prompt, )]print(Welcome to InternLM chatbot, type exit to exit.)while True:# 用户输入input_text input(\nUser )input_text input_text.replace( , )if input_text exit:break# 预测length 0for response, _ in model.stream_chat(tokenizer, input_text, messages):if response is not None:print(response[length:], flushTrue, end)length len(response) transformers 一个用于自然语言处理NLP任务如文本分类、命名实体识别机器翻译等提供了预训练的语言模型如BERT、GPT同时用于模型训练、评估和推理的工具和API的Python库。 AutoTokenizer.from_pretrained() 与其他神经网络一样Transformer 模型不能直接处理原始文本故使用分词器进行预处理。 使用AutoTokenizer类及其from_pretrained()方法。 例程   from transformers import AutoTokenizermodel_name_or_path /root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8btokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue, device_mapcuda:0)raw_input [你好,我是希希]input tokenizer(raw_input, padding True, truncation True, return_tensorspt)print(input)输出 {input_ids: tensor([[ 2, 2, 1, 77230],[ 1, 68734, 60983, 60983]]), attention_mask: tensor([[0, 0, 1, 1],[1, 1, 1, 1]]) }input_ids词汇表中输入序列标记的索引可以理解为词向量 attention_mask0表示屏蔽1表示未屏蔽。 ​ 在示例中tokenizer函数的padding参数为True意为将文本按最长的序列补齐。 问题词向量如何进行编码Attention_mask如何使用 AutoModelForCausalLM.from_pretrained() 用于加载模型有两种方式 加载模型但不加载权重 例程 model AutoModelForCausalLM.from_pretrained(gpt2)保存文件后运行命令python /root/demo/cli_demo.py即可开始交互。 三、部署实战营优秀作品 八戒-Chat-1.8B 模型 八戒-Chat-1.8B、Chat-嬛嬛-1.8B、Mini-Horo-巧耳 均是在第一期实战营中运用 InternLM2-Chat-1.8B 模型进行微调训练的优秀成果。各模型链接如下 八戒-Chat-1.8Bhttps://www.modelscope.cn/models/JimmyMa99/BaJie-Chat-mini/summaryChat-嬛嬛-1.8Bhttps://openxlab.org.cn/models/detail/BYCJS/huanhuan-chat-internlm2-1_8bMini-Horo-巧耳https://openxlab.org.cn/models/detail/SaaRaaS/Horowag_Mini 3.1 配置环境 获取Demo文件 conda activate demo cd /root/ git clone https://gitee.com/InternLM/Tutorial -b camp2 # git clone https://github.com/InternLM/Tutorial -b camp2 cd /root/Tutorial下载模型 python /root/Tutorial/helloworld/bajie_download.py下载完成后输入运行命令 streamlit run /root/Tutorial/helloworld/bajie_chat.py --server.address 127.0.0.1 --server.port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。 打开 PowerShell 后先查询端口再根据端口键入命令。 输入命令 # 从本地使用 ssh 连接 studio 端口 # 将下方端口号 38374 替换成自己的端口号 ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p (自己端口号)打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。 四、通过 InternLM2-Chat-7B运行 Lagent智能体 Demo Lagent 是一个轻量级、开源的基于大语言模型的智能体agent框架支持用户快速地将一个大语言模型转变为多种类型的智能体并提供了一些典型工具为大语言模型赋能。 4.1 配置环境 同上述模型环境配置 conda activate demo cd /root/demo git clone https://gitee.com/internlm/lagent.git # git clone https://github.com/internlm/lagent.git cd /root/demo/lagent git checkout 581d9fb8987a5d9b72bb9ebd37a95efd47d479ac pip install -e . # 源码安装4.2 使用 Lagent运行 InternLM2-Chat-7B模型为内核的智能体 打开 lagent 路径 cd /root/demo/lagent 在 terminal 中输入指令构造软链接快捷访问方式 ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b 打开 lagent 路径下 examples/internlm2_agent_web_demo_hf.py 文件并修改对应位置 (71行左右) 代码 # 其他代码... value/root/models/internlm2-chat-7b # 其他代码...输入运行命令 - 点开 6006 链接后大约需要 5 分钟完成模型加载 streamlit run /root/demo/lagent/examples/internlm2_agent_web_demo_hf.py --server.address 127.0.0.1 --server.port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。 打开 PowerShell 后先查询端口再根据端口键入命令。 输入命令 # 从本地使用 ssh 连接 studio 端口 # 将下方端口号 38374 替换成自己的端口号 ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p (自己端口号)打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。 五、实践部署浦语·灵笔2模型 5.1 环境配置 conda activate demo # 补充环境包 pip install timm0.4.12 sentencepiece0.1.99 markdown22.4.10 xlsxwriter3.1.2 gradio4.13.0 modelscope1.9.5#下载相关代码 cd /root/demo git clone https://gitee.com/internlm/InternLM-XComposer.git # git clone https://github.com/internlm/InternLM-XComposer.git cd /root/demo/InternLM-XComposer git checkout f31220eddca2cf6246ee2ddf8e375a40457ff626#创建软链接 ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-vl-7b /root/models/internlm-xcomposer2-vl-7b5.2 图文写作 输入命令启动InternLM-XComposer cd /root/demo/InternLM-XComposer python /root/demo/InternLM-XComposer/examples/gradio_demo_composition.py \ --code_path /root/models/internlm-xcomposer2-7b \ --private \ --num_gpus 1 \ --port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。 打开 PowerShell 后先查询端口再根据端口键入命令。 输入命令 # 从本地使用 ssh 连接 studio 端口 # 将下方端口号 38374 替换成自己的端口号 ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p (自己端口号)打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。 5.3 图片理解 关闭并重新启动一个新的 terminal继续输入指令启动 InternLM-XComposer2-vl conda activate democd /root/demo/InternLM-XComposer python /root/demo/InternLM-XComposer/examples/gradio_demo_chat.py \ --code_path /root/models/internlm-xcomposer2-vl-7b \ --private \ --num_gpus 1 \ --port 6006打开 http://127.0.0.1:6006 后上传图片等待加载完成即可进行对话。
http://www.pierceye.com/news/805397/

相关文章:

  • 招远专业做网站公司wordpress获取qq昵称 头像
  • 河北网站建设业务服务称赞的项目管理平台
  • 用jsp做的网站首页如何建立一个网站来卖东西
  • 外贸型网站建设的基本流程宣传型网站建设
  • 济南手机网站开发公司贵阳网络推广公司
  • 网站开发需求模板找网络公司做推广费用
  • 网站推广工具推荐广州公关公司招聘
  • 网站搭建平台源码做健身网站开题报告
  • 大芬网站建设樟树网站开发
  • 北京通州个人网站建设哈尔滨建设工程招投标办公室
  • 怎样开个人网站如何做百度免费推广
  • 深圳成品网站超市佛山网站建设机构
  • 江苏 网站建设第一次做网站做后感
  • wordpress翻译公司网站没事网站建设项目规划书
  • 东莞建设年审网站我的世界充钱网站怎么做
  • 太原网站排名系统电子商务市场营销
  • 社区网站开发进度表2018年做网站还能
  • 论企业网站建设的必要性内网网站搭建设
  • 网站建设怎么翻译如何建立自己的网站
  • 2345网址大全热门seo推广排名稳定
  • 网站建设工作有底薪吗360优化大师
  • 门户网站微信服务号建设大型网站建设优化排名
  • 贵州省冶金建设有限公司网站wordpress end_lvl
  • 网站建设的工作职责是什么网站后台显示连接已重置
  • 俱乐部手机网站模板微信公众号个人可以做网站么
  • 简述一个网站开发流程软件下载网站搭建
  • 超级营销型网站模板建湖人才网官网登录
  • 建设网站都需要什么万网二手已备案域名
  • 网站建设运营维护合同快捷建站专家
  • 中山建设网站公司软件工程开发