当前位置: 首页 > news >正文

池州网站建设有哪些公司兴义网站seo

池州网站建设有哪些公司,兴义网站seo,seo培训优化,衡水专业做wap网站【ChatGLM2-6B】小白入门及Docker下部署 一、简介1、ChatGLM2是什么2、组成部分3、相关地址 二、基于Docker安装部署1、前提2、CentOS7安装NVIDIA显卡驱动1#xff09;查看服务器版本及显卡信息2#xff09;相关依赖安装3#xff09;显卡驱动安装 2、 CentOS7安装NVIDIA-Doc… 【ChatGLM2-6B】小白入门及Docker下部署 一、简介1、ChatGLM2是什么2、组成部分3、相关地址 二、基于Docker安装部署1、前提2、CentOS7安装NVIDIA显卡驱动1查看服务器版本及显卡信息2相关依赖安装3显卡驱动安装 2、 CentOS7安装NVIDIA-Docker1相关环境准备2开始安装3验证使用 3、 Docker部署ChatGLM21下载对应代码包和模型包2上传至服务器并进行解压3下载镜像并启动容器4等待启动并访问页面5注意事项 三、开发环境搭建1) 代码远程编辑配置2) 一些基本的说明2、接口调用方式好了开始你的探索吧~ 一、简介 1、ChatGLM2是什么 一个类似于ChatGPT的智能文本对话模型支持页面方式进行对话ChatGLM3已经支持图片分析和生成这里由于研究仅限于文本因此选择GLM2支持训练与微调代码开源 2、组成部分 模型基本的模型矩阵重量级的参数大约十几个G可以理解为是程序的初始化参数配置信息 代码加载模型的py代码ChatGLM2已经封装好了多种加载和对话的方式支持窗口对话、WEB页面对话、Socket对话、HTTP接口对话等方式。 3、相关地址 GitHub地址 https://github.com/THUDM/ChatGLM2-6B国内模型下载地址https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p%2Fmodelist代码下载地址https://github.com/THUDM/ChatGLM-6Bdocker下部署文档https://www.luckzym.com/tags/ChatGLM-6B/windows下部署文档https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md官方推荐指导手册https://www.heywhale.com/mw/project/6436d82948f7da1fee2be59e 二、基于Docker安装部署 1、前提 安装了docker 16G以上显卡 2、CentOS7安装NVIDIA显卡驱动 先查看显卡是否已经安装没有安装再进行安装已安装就跳过此步 nvidia-smi # 如下图是已安装如果没有相关信息再进行显卡的安装。 1查看服务器版本及显卡信息 # Linux查看显卡信息ps若找不到lspci命令可以安装 yum install pciutils lspci | grep -i vga# 使用nvidia GPU可以 lspci | grep -i nvidia# 查看显卡驱动 cat /proc/driver/nvidia/version系统CentOS7 Linux显卡iGame GeForce RTX 3070 Ti Advanced OC 8G 2相关依赖安装 安装依赖环境 yum install kernel-devel gcc -y检查内核版本和源码版本保证一致 ls /boot | grep vmlinu rpm -aq | grep kernel-devel屏蔽系统自带的Nouveau # 查看命令 lsmod | grep nouveau # 修改dist-blacklist.conf文件 vim /lib/modprobe.d/dist-blacklist.conf # 将nvidiafb注释掉: blacklist nvidiafb # 然后添加以下语句 blacklist nouveau options nouveau modeset0可以在屏蔽之后重启系统并在命令行中输入lsmod | grep nouveau查看命令观察是否已经将其屏蔽。 重建Initramfs Image步骤 mv /boot/initramfs-$(uname -r).img /boot/initramfs-$(uname -r).img.bak dracut /boot/initramfs-$(uname -r).img $(uname -r)修改运行级别为文本模式 systemctl set-default multi-user.target重新启动 reboot3显卡驱动安装 去到NVIDIA官网下载对应的显卡驱动 网址https://www.nvidia.cn/Download/index.aspx?langcn在这里点击搜索即可弹出对应的下载软件包 开始安装其软件包 chmod x NVIDIA-Linux-x86_64-525.105.17.run ./NVIDIA-Linux-x86_64-525.105.17.run验证是否安装成功 nvidia-smi到此CentOS7已完成NVIDIA显卡驱动的安装 2、 CentOS7安装NVIDIA-Docker 1相关环境准备 在开始之前我们需要确保已经安装好了Docker的环境并且也安装了Docker Compose。 需要注意的是因为NVIDIA-Docker软件的存在我们不需要在宿主机上安装CUDA工具包这样我们可以根据不同的需要选择合适的版本。 NVIDIA容器工具包对应的Github代码仓库地址https://github.com/NVIDIA/nvidia-docker 2开始安装 # 获得当前操作系统的发行版和版本以便下载适用于NVIDIA Docker Toolkit的正确仓库 distribution$(. /etc/os-release;echo $ID$VERSION_ID)# 下载NVIDIA Docker Toolkit仓库并将其保存为文件到/etc/yum.repos.d/目录中使得包管理器够定位并安装工具包 curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.repo | sudo tee /etc/yum.repos.d/nvidia-docker.repo# 使用yum安装nvidia-container-toolkit软件包 sudo yum install -y nvidia-container-toolkit# 重新启动Docker守护程序以便它识别通过安装NVIDIA Docker Toolkit进行的新配置更改 sudo systemctl restart docker3验证使用 # 在现有的GPU上启动启用GPU的容器并运行nvidia-smi命令 docker run --gpus all nvidia/cuda:10.0-base nvidia-smi# 在两个GPU上启动启用GPU的容器并运行nvidia-smi命令 docker run --gpus 2 nvidia/cuda:10.0-base nvidia-smi# 在特定的GPU上启动启用GPU的容器并运行nvidia-smi命令 docker run --gpus device1,2 nvidia/cuda:10.0-base nvidia-smidocker run --gpus deviceUUID-ABCDEF,1 nvidia/cuda:10.0-base nvidia-smi# 这个命令演示了如何为容器指定能力图形、计算等 # 请注意这种方式很少使用 docker run --gpus all,capabilitiesutility nvidia/cuda:10.0-base nvidia-smi3、 Docker部署ChatGLM2 1下载对应代码包和模型包 链接https://pan.baidu.com/s/1RhoYQ6wL5eJM8Qd0K4BYAg?pwdzws4 提取码zws42上传至服务器并进行解压 解压完成后的目录如下 3下载镜像并启动容器 注意在线环境直接使用以下代码启动即可离线环境需要先手动下载和加载woshikid/chatglm2-6b镜像然后在使用docker进行启动 docker run --gpus all --runtimenvidia \ -p 7860:7860 \ -p 8000:8000 \ -p 8501:8501 \ -p 80:80 \ -v ./ChatGLM2-6B:/ChatGLM2-6B \ -v ./model/chatglm2-6b:/chatglm2-6b \ --name chatglm2-webdemo \ -dit woshikid/chatglm2-6b \ python web_demo.py其中-p表示端口映射物理机的7860端口会映射容器的7860端口这个端口是web页面的端口 -v后跟的参数表示将物理机上的对应目录映射进入docker容器中 以下是启动的不同的访问方式和端口信息 woshikid/chatglm2-6b python cli_demo.py # 小黑窗口对话 -p 8000:8000 woshikid/chatglm2-6b python api.py # HTTP接口对话 -p 8000:8000 woshikid/chatglm2-6b python openai_api.py # HTTP接口对话 -p 7860:7860 woshikid/chatglm2-6b python web_demo.py # WEB页面对话 -p 8501:8501 woshikid/chatglm2-6b streamlit run web_demo2.py # streamlit框架的WEB页面对话4等待启动并访问页面 http://ip:7860即可进入对话页面 5注意事项 通过nvidia-smi命令可以查看显卡使用情况 另外如果是自己从github上下载的官方代码需要修改下web_demo.py代码允许远程访问否则默认会只允许本机访问。 三、开发环境搭建 1) 代码远程编辑配置 通常本地的代码开发机器性能不足以支持ChatGLM2-6B的运行但是在服务器上去编辑代码又十分的不方便因此使用一种可以远程开发的方法来进行开发。下面是对这种方法的步骤介绍 各种开发工具基本上都有这种功能这里以Idea或者PyCharm开发工具来说明其原理是本地开发后利用SFTP将代码推送到远程服务器来进行对应的调试。 1首先打开IDEA或PyCharm开发工具打开我们的代码。 2打开开发环境配置。 3新建一个SFTP配置并在Connection中填写服务器连接配置信息。 4点击Mappings将本地的代码地址和服务器上的代码地址做映射这里服务器上的代码地址是我们ChatGLM-6B的地址用于映射到容器内部然后点击确认。 5代码推送。 6这样就可以实现本地编写代码推送到远程进行调试了十分的便捷。 报错的信息不用管因为本地没有环境所以只能当编辑器使用。 2) 一些基本的说明 2、接口调用方式 curl -X POST http://127.0.0.1:8000 \-H Content-Type: application/json \-d {prompt: 你好, history: []}回复的内容 {response:你好我是人工智能助手 ChatGLM-6B很高兴见到你欢迎问我任何问题。,history:[[你好,你好我是人工智能助手 ChatGLM-6B很高兴见到你欢迎问我任何问题。]],status:200,time:2023-03-23 21:38:40 }好了开始你的探索吧~
http://www.pierceye.com/news/867749/

相关文章:

  • 网站被刷流量怎么办wordpress fold主题
  • 做的新网站网上搜不到临沂免费做网站
  • 高端大气的网站制作建筑人才网下载
  • 如何快速提升网站关键词排名综合服务平台一站式服务平台网站开发
  • 阿土伯 是做网站的吗建设厅国网查询网站
  • 天长哪个广告公司做网站中国菲律宾汇率换算
  • 动漫在线制作网站wordpress get_template_part
  • 肇庆高端品牌网站建设住建部网站资质查询中宏建设集团
  • 扁平化网站模板下载莱西网站建设哪家好
  • 用vis做的简单网站网站建设需求方案pdf
  • 怎么免费做网站视频教学沈阳网站备案
  • 徐州有哪些网站制作公司太原住房和城乡建设部网站
  • 专门做摩托车的网站注册域名阿里云
  • 做个简单的网站建站公司费用
  • 网站建设举措网站免费建站方法
  • 遵义市双控体系建设网站wamp wordpress安装
  • 厦门的网站建设公司龙岗网站-建设深圳信科
  • 上海网站建设q.479185700強成都上界品牌设计事务所
  • 产品设计优秀网站做网站申请多少类商标
  • 中国行业网站贵州网站建设seo优化
  • 网站部兼容ie6没有防盗链的网站
  • google网站推广网站自助平台
  • 外贸自建站多久能出单wordpress的pdf阅读
  • 深圳东莞的网站建设公司网店代运营哪里好
  • 做费网站wordpress折叠代码
  • 分析海报的网站企业网站服务费怎么做记账凭证
  • 海南建设大厅网站888网创
  • aspnet网站开发实例项目河南网站建设推广
  • ppt免费模板大全网站微网站建设网站
  • 郑州网站建设七彩科技网络服务器配置设计