当前位置: 首页 > news >正文

关于水果的网站建设前端页面设计

关于水果的网站建设,前端页面设计,国内无版权图片网站,加工活外放的正规公司本地快速部署谷歌开放模型Gemma教程#xff08;基于WasmEdge#xff09; 一、介绍 Gemma二、部署 Gemma2.1 部署工具2.1 部署步骤 三、构建超轻量级 AI 代理四、总结 一、介绍 Gemma Gemma是一系列轻量级、最先进的开放式模型#xff0c;采用与创建Gemini模型相同的研究和技… 本地快速部署谷歌开放模型Gemma教程基于WasmEdge 一、介绍 Gemma二、部署 Gemma2.1 部署工具2.1 部署步骤 三、构建超轻量级 AI 代理四、总结 一、介绍 Gemma Gemma是一系列轻量级、最先进的开放式模型采用与创建Gemini模型相同的研究和技术而构建。可以直接运行在本地的电脑上无GPU也可以运行只用CPU即可只不过速度慢点。 二、部署 Gemma 2.1 部署工具 使用 Linux 环境 WasmEdge 一个工具部署GemmaWasmEdge 用来运行模型。 WasmEdgehttps://github.com/wasmedge/wasmedge WasmEdge 是在您自己的设备上运行 LLM 的最简单、最快的方法。 WasmEdge 是一个轻量级、高性能且可扩展的 WebAssembly 运行时。它是当今最快的 Wasm 虚拟机。WasmEdge 是CNCF主办的官方沙箱项目。其用例包括现代 Web 应用程序架构同构和 Jamstack 应用程序、边缘云上的微服务、无服务器 SaaS API、嵌入式功能、智能合约和智能设备。 2.1 部署步骤 安装具有 LLM 支持的 WasmEdge 可以从一行命令开始安装 WasmEdge 运行时并提供 LLM 支持。 curl -sSf https://raw.githubusercontent.com/WasmEdge/WasmEdge/master/utils/install.sh | bash -s -- --plugins wasmedge_rustls wasi_nn-ggml使用选项传递插件列表--plugins安装wasmedge_rustls和wasi_nn-ggml插件。wasmedge_rustls插件以启用 TLS 和 HTTPS 网络为启动API服务提供支持。wasi_nn-ggml使 WasmEdge 能够在大型语言模型例如LMMs的 gemma上运行人工智能推理程序。 安装完成后执行source /home/server/.bashrc使wasmedge命令立即生效。 或者可以按照此处的安装指南手动下载并复制 WasmEdge 安装文件。 在 Wasm 中下载 LLM 聊天应用程序 接下来获取超小型 2MB 跨平台二进制文件 - LLM 聊天应用程序该应用程序允许您在命令行上与模型聊天。它证明了效率不需要其他依赖项并提供跨各种环境的无缝操作这个 2M 的小 Wasm 文件是从 Rust 编译而来的。 curl -LO https://github.com/LlamaEdge/LlamaEdge/releases/latest/download/llama-chat.wasm下载Gemma-7b-it 模型 GGUF 文件由于模型大小为5.88G下载可能需要一段时间。 curl -LO https://huggingface.co/second-state/Gemma-7b-it-GGUF/resolve/main/gemma-7b-it-Q5_0.gguf模型下载汇总https://github.com/LlamaEdge/LlamaEdge/blob/main/models.md WasmEdge 还支持 Llama2、CodeLlama、Codeshell、Mistrial、MiscialLite、TinyLlama、Baichuan、BELLE、Alpaca、Vicuna、OpenChat、Starcoder、OpenBuddy 等等 在 CLI 上与 Llama2 7b 模型聊天 现在您已完成所有设置您可以开始使用命令行与 Llama2 7b 聊天支持的 LLM 聊天。 wasmedge --dir .:. --nn-preload default:GGML:AUTO:gemma-7b-it-Q5_0.gguf llama-chat.wasm -p gemma-instruct -c 4096便携式 Wasm 应用程序会自动利用我设备上的硬件加速器例如 GPU。 [You]: Create JSON for the following: There are 3 people, two males, One is named Mark. Another is named Joe. And a third person, who is a woman, is named Sam. The women is age 30 and the two men are both 19.[Bot]: json {people: [{name: Mark,age: 19},{name: Joe,age: 19},{name: Sam,age: 30}] }您可以使用同一llama-chat.wasm文件来运行其他 LLM例如 OpenChat、CodeLlama、Mistral 等。 三、构建超轻量级 AI 代理 创建兼容OpenAI的API服务 当您使用领域知识或自托管 LLama2 模型微调模型时仅使用 CLI 运行模型是不够的。接下来我们为开源模型设置兼容 OpenAI 的 API 服务然后我们可以将微调后的模型集成到其他工作流程中。 假设您已经安装了带有 ggml 插件的 WasmEdge 并下载了您需要的模型。 首先通过终端下载Wasm文件来构建API服务器它也是一个跨平台的便携式 Wasm 应用程序可以在许多 CPU 和 GPU 设备上运行。 curl -LO https://github.com/LlamaEdge/LlamaEdge/releases/latest/download/llama-api-server.wasm下载聊天机器人 Web UI以通过聊天机器人 UI 与模型进行交互。 curl -LO https://github.com/LlamaEdge/chatbot-ui/releases/latest/download/chatbot-ui.tar.gz tar xzf chatbot-ui.tar.gz rm chatbot-ui.tar.gz使用以下命令行启动模型的 API 服务器。 wasmedge --dir .:. --nn-preload default:GGML:AUTO:gemma-7b-it-Q5_0.gguf llama-api-server.wasm -p gemma-instruct -c 4096然后看到连接已建立后打开浏览器访问http://0.0.0.0:8080/即可使用可视化操作页面聊天。 serverdev-fj-srv:~/code$ wasmedge --dir .:. --nn-preload default:GGML:AUTO:gemma-2b-it-Q5_0.gguf llama-api-server.wasm -p gemma-instruct -c 4096 [2024-03-01 09:46:45.391] [error] instantiation failed: module name conflict, Code: 0x60 [2024-03-01 09:46:45.391] [error] At AST node: module [INFO] Socket address: 0.0.0.0:8080 [INFO] Model name: default [INFO] Model alias: default [INFO] Prompt context size: 4096 [INFO] Number of tokens to predict: 1024 [INFO] Number of layers to run on the GPU: 100 [INFO] Batch size for prompt processing: 512 [INFO] Temperature for sampling: 1 [INFO] Top-p sampling (1.0 disabled): 1 [INFO] Penalize repeat sequence of tokens: 1.1 [INFO] Presence penalty (0.0 disabled): 0 [INFO] Frequency penalty (0.0 disabled): 0 [INFO] Prompt template: GemmaInstruct [INFO] Log prompts: false [INFO] Log statistics: false [INFO] Log all information: false [INFO] Starting server ... [INFO] Plugin version: b2230 (commit 89febfed) [INFO] Listening on http://0.0.0.0:8080您可以使用以下命令行来尝试您的模型。 curl -X POST http://localhost:8080/v1/chat/completions \-H accept: application/json \-H Content-Type: application/json \-d {messages:[{role:system, content: You are a helpful assistant. Answer each question in one sentence.}, {role:user, content: Who is Robert Oppenheimer?}], model:llama-2-chat}四、总结 此教程用于基于 WasmEdge 系统的部署可根据自身需求定制部署环境灵活调整配置参数满足个性化需求。对模型和数据拥有完全控制权可自由进行二次开发和扩展。
http://www.pierceye.com/news/671657/

相关文章:

  • 青岛网站建设网站制作seo顾问服务福建
  • phpcms网站织梦 网站栏目管理 很慢
  • 金融网站 改版方案seo推广优化培训
  • 博物馆设计网站推荐网站布局有哪些常见的
  • 外贸网站建设980ps软件需要付费吗
  • 网站开发后的经验总结北新泾街道网站建设
  • 深圳市南山区住房和建设局网站国内知名网站建设伺
  • 企业网站建设制作的域名费用做的网站怎么上传
  • c++可视化界面设计搜索引擎优化自然排名的区别
  • 网站开发工作网络营销的网站分类有
  • 校园网上零售网站建设方案网站建设中页面模板
  • 网站如何报备外贸网站设计风格
  • 网上的网站模板怎么用百度网站认证官网
  • 上饶企业网站建设免费制作小程序游戏
  • cps推广网站建e网卧室设计效果图
  • php支持大型网站开发吗南海最新消息
  • 多语言企业网站html网站素材
  • 网站建设留言板怎么做优必选网站
  • 深圳建网建网站南博网站建设
  • 如何做防水网站一般网站做响应式吗
  • 回收手机的网站哪家好学生个人网页
  • 优秀甜品网站最有前景的十大行业
  • 手册设计南宁seo网站排名优化公司
  • 国外做科普视频的网站郑州做营销型网站的公司
  • 雄安网站设计制作即时灵感网站
  • 自己怎么优化网站排名wordpress 自动超链接
  • 建设工程安全监督备案网站wordpress最简易主题
  • 集客营销软件官方网站如何开发微信微网站
  • 青岛谁优化网站做的好微营销工具
  • 怎么才能建立一个网站卖东西php做网站用html做吗