展示型网站案例,服装设计图片,WordPress考试,有教做路桥质检资料的网站吗Lagent#xff1a;智能体框架#xff0c;实现将一个大语言模型转化为多种类型的智能体#xff0c;更好地发挥InternLM的性能 浦语灵笔#xff1a;视觉语言大模型
InternLM-Chat-7B智能对话Demo
环境准备 使用复制的internlm-demo环境
# 执行该脚本文件来安装项目实验环境…Lagent智能体框架实现将一个大语言模型转化为多种类型的智能体更好地发挥InternLM的性能 浦语·灵笔视觉·语言大模型
InternLM-Chat-7B智能对话Demo
环境准备 使用复制的internlm-demo环境
# 执行该脚本文件来安装项目实验环境实验环境名为internlm-demo
bash /root/share/install_conda_env_internlm_base.sh internlm-demo 模型下载
mkdir -p /root/model/Shanghai_AI_Laboratory
# 直接使用internLM studio开发机中原有的环境
cp -r /root/share/temp/model_repos/internlm-chat-7b /root/model/Shanghai_AI_Laboratory 代码准备 clone InternLM的代码修改模型路径为本地模型 终端运行 运行结果展示如下 web-demo的运行
# 运行web_demo代码
streamlit run /root/code/lagent/examples/react_web_demo.py --server.address 127.0.0.1 --server.port 6006# 映射配置
ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p 33090运行结果展示如下
Lagent 智能体工具调用Demo
lagent轻量级、开源的基于大语言模型的智能体agent框架赋予llm以agent能力 环境准备 和上面的对话Demo使用相同的镜像环境 模型下载 和上面的对话Demo使用相同的模型InternLM-chat-7b Lagent安装 克隆lagent仓库通过pip install -e .源码安装lagent Demo运行 使用bash命令运行web_demo
streamlit run /root/code/lagent/examples/react_web_demo.py --server.address 127.0.0.1 --server.port 6006在web_demo网页上选择internlm作为运行模型
运行结果如下展示 真的好慢啊 internlm-chat的原有对话功能丧失了似乎
数学计算
解释插入排序web_demo先展示了插件返回结果然后再进行了同样的回答
浦语·灵笔图文创作理解Demo
利用internlm-xcomposer-7b模型部署一个图文理解创作demo
环境准备 利用开发机自带的环境创建脚本创建一个新的conda环境xcomposer-demo 安装必要的python包
pip install transformers4.33.1 timm0.4.12 sentencepiece0.1.99 gradio3.44.4 markdown22.4.10 xlsxwriter3.1.2 einops accelerate模型下载 复制开发机上的internlm-xcomposer-7b模型代码准备 git clone InternLM-XComposer仓库Demo运行 运行命令为
python examples/web_demo.py \--folder /root/model/Shanghai_AI_Laboratory/internlm-xcomposer-7b --num_gpus 1 \--port 6006说明 我的浦语·灵笔web_demo加载总是有问题最后也没解决这里就不放图了 开始是有报这个错误 然后我按照提示信息下载了对应文件并上传 终端出现Could not create share link. Please check your internet connection or our status page: https://status.gradio.app.错误提示 我在终端运行以下命令
chmod x /root/.local/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.2最终运行没有报错但部署在开发机上的模型却始终没有运行起来有图生文的效果并且web_demo的logo图片显示get失败通过浏览器检查看到logo图片的地址访问提示404
接下来的debug步骤应当是检查源码/重开一个开发机再试一次因为我把这个demo和task3的langchain-rag弄到同一个A100(1/4)*2的开发机里了根据我不多的llm相关知识不确定会不会有环境污染问题虽然其实是分别的conda环境不懂
参考资料
书生·浦语大模型全链路开源体系