免费做网站刮刮卡,网站加速器下载,wordpress用户前台删除文章,巢湖市网站建设优化文章目录 1、Windows下ollama详细安装指南1.1、ollama介绍1.2、系统要求1.3、下载安装程序1.4、安装步骤1.5、验证安装1.6、环境变量配置1.7、模型选择与安装【deepseek 示例】1.7.1、拉取并运行模型1.7.2、进阶使用技巧 1、Windows下ollama详细安装指南 1.1、ollama介绍
olla… 文章目录 1、Windows下ollama详细安装指南1.1、ollama介绍1.2、系统要求1.3、下载安装程序1.4、安装步骤1.5、验证安装1.6、环境变量配置1.7、模型选择与安装【deepseek 示例】1.7.1、拉取并运行模型1.7.2、进阶使用技巧 1、Windows下ollama详细安装指南 1.1、ollama介绍
ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口用于创建、运行和管理这些模型同时还提供了一个丰富的预构建模型库可以轻松集成到各种应用程序中。ollama的目标是使大型语言模型的部署和交互变得简单无论是对于开发者还是对于终端用户
1.2、系统要求
Windows 10/11 64位8GB RAM推荐16GB10GB 可用存储空间已启用虚拟化BIOS/UEFI设置支持CUDA的NVIDIA GPU可选用于GPU加速
1.3、下载安装程序 访问官方下载页面 官方地址https://ollama.com/download百度网盘https://pan.baidu.com/s/18X96ZrqZGF_kJlKLpuTZVA 提取码: byi8 选择 Windows 版本下载 保存安装文件到本地默认名称为 OllamaSetup.exe
1.4、安装步骤 运行安装程序 双击下载的 OllamaSetup.exe如果出现用户账户控制提示点击是 完成安装 当出现Installation Complete提示时点击Finish
1.5、验证安装 打开 PowerShell 或 CMD 执行版本检查命令 ollama --version✅ 正常输出示例 ollama version 0.1.201.6、环境变量配置
Ollama 的默认模型存储路径如下C:\Users%username%.ollama\models无论 C 盘空间大小需要安装多少模型都建议换一个存放路径到其它盘。 添加安装路径到PATH 设置步骤 WinS 搜索 “环境变量” → 编辑系统环境变量 点击环境变量 → 系统变量 →新增 变量名为OLLAMA_MODELS变量值为E:\Tools\ollama\models 确定保存 Ollama 退出重新启动 Windows 右下角图标点击退出后重新启动
1.7、模型选择与安装【deepseek 示例】
硬件配置推荐表
R1模型版本CPUGPU内存存储1.5BIntel Core i5/AMD Ryzen 5 及以上无强制要求有 1GB 及以上显存可提升性能最低 8GB推荐 16GB至少 10GB建议留更多缓存空间7BIntel Core i7/AMD Ryzen 7 及以上无强制要求有 4GB 以上显存更好推荐 8 - 12GB最低 16GB推荐 32GB至少 12GB建议 30GB8BIntel Core i7/AMD Ryzen 7 及以上无强制要求有 4.5GB 以上显存更好推荐 8GB最低 16GB推荐 32GB至少 12GB建议 30GB14BIntel Core i9/AMD Ryzen 9 及以上8GB 以上推荐 12GB如 RTX 3080 及以上最低 32GB推荐 64GB至少 15GB建议 50GB32B高端多核强多线程处理能力18GB 左右建议 24GB如 NVIDIA A10032GB推荐 64GB至少 20GB建议 80GB70B服务器级 CPU如 Intel Xeon 系列40GB 以上如 NVIDIA H10064GB推荐 128GB至少 30GB建议 200GB
模型选择决策树 #mermaid-svg-YKxXD6ILzKW0jdI1 {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .error-icon{fill:#552222;}#mermaid-svg-YKxXD6ILzKW0jdI1 .error-text{fill:#552222;stroke:#552222;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edge-thickness-normal{stroke-width:2px;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edge-thickness-thick{stroke-width:3.5px;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edge-pattern-solid{stroke-dasharray:0;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edge-pattern-dashed{stroke-dasharray:3;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edge-pattern-dotted{stroke-dasharray:2;}#mermaid-svg-YKxXD6ILzKW0jdI1 .marker{fill:#333333;stroke:#333333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .marker.cross{stroke:#333333;}#mermaid-svg-YKxXD6ILzKW0jdI1 svg{font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;}#mermaid-svg-YKxXD6ILzKW0jdI1 .label{font-family:"trebuchet ms",verdana,arial,sans-serif;color:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .cluster-label text{fill:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .cluster-label span{color:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .label text,#mermaid-svg-YKxXD6ILzKW0jdI1 span{fill:#333;color:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .node rect,#mermaid-svg-YKxXD6ILzKW0jdI1 .node circle,#mermaid-svg-YKxXD6ILzKW0jdI1 .node ellipse,#mermaid-svg-YKxXD6ILzKW0jdI1 .node polygon,#mermaid-svg-YKxXD6ILzKW0jdI1 .node path{fill:#ECECFF;stroke:#9370DB;stroke-width:1px;}#mermaid-svg-YKxXD6ILzKW0jdI1 .node .label{text-align:center;}#mermaid-svg-YKxXD6ILzKW0jdI1 .node.clickable{cursor:pointer;}#mermaid-svg-YKxXD6ILzKW0jdI1 .arrowheadPath{fill:#333333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edgePath .path{stroke:#333333;stroke-width:2.0px;}#mermaid-svg-YKxXD6ILzKW0jdI1 .flowchart-link{stroke:#333333;fill:none;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edgeLabel{background-color:#e8e8e8;text-align:center;}#mermaid-svg-YKxXD6ILzKW0jdI1 .edgeLabel rect{opacity:0.5;background-color:#e8e8e8;fill:#e8e8e8;}#mermaid-svg-YKxXD6ILzKW0jdI1 .cluster rect{fill:#ffffde;stroke:#aaaa33;stroke-width:1px;}#mermaid-svg-YKxXD6ILzKW0jdI1 .cluster text{fill:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 .cluster span{color:#333;}#mermaid-svg-YKxXD6ILzKW0jdI1 div.mermaidTooltip{position:absolute;text-align:center;max-width:200px;padding:2px;font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:12px;background:hsl(80, 100%, 96.2745098039%);border:1px solid #aaaa33;border-radius:2px;pointer-events:none;z-index:100;}#mermaid-svg-YKxXD6ILzKW0jdI1 :root{--mermaid-font-family:"trebuchet ms",verdana,arial,sans-serif;} 通用对话 代码生成 多模态任务 轻量化部署 中文优先 多语言支持 英文优先 Python Java/C Web开发 文本图像 纯文本 低性能设备 高性能设备 中等性能设备 开始选择模型 主要任务类型 语言支持 编程语言 输入类型 设备性能 DeepSeek-R1 Llama 3.3 Phi-4 DeepSeek-R1 Llama 3.3 Mistral Gemma 2 Llama 3.3 Phi-4 Gemma 2 Mistral 1.7.1、拉取并运行模型 ollama可拉取模型地址 ollama library : https://ollama.com/library官网首页https://ollama.com/ 以deepseek-r1 为例点击首页中 DeepSeek-R1 拉取并运行模型 拉取指令 ollama run deepseek-r1:671b
# ollama run 目标模型:大小✅ 正常输出结果如下 模型交互 在交互框中可直接输入问题 ✅ 正常输出结果如下 查询已下载模型 ollama list✅ 正常输出结果如下 其他指令 # 查询模型信息
ollama show qwen2:0.5b# 删除模型
ollama rm qwen2:0.5b1.7.2、进阶使用技巧
API 调用 注意python中有集成的ollama工具包需Python 3.8及以上版本 Install
pip install ollamaCustom client 示例
from ollama import Client
client Client(hosthttp://localhost:11434
)
response client.chat(modeldeepseek-r1:7b, messages[{role: user,content: strawberry 中有几个r,},
])print(response[message][content])更多API详见https://pypi.org/project/ollama
REST API详见https://github.com/ollama/ollama/blob/main/docs/api.md