谈谈网站建设创新问题,做网站基本要求,承德网站制作的流程,模板网简历目录
前言
modelscope
huggingface安装 Windows设置环境变量 Linux设置环境变量
设置国内镜像 Windows#xff08;cmd.exe#xff09; 当前窗口有效 永久生效 Linux 当前窗口有效 永久生效 下载模型 前言
国内优先使用modelscope#xff0c;hugging face镜像站下载…目录
前言
modelscope
huggingface安装 Windows设置环境变量 Linux设置环境变量
设置国内镜像 Windowscmd.exe 当前窗口有效 永久生效 Linux 当前窗口有效 永久生效 下载模型 前言
国内优先使用modelscopehugging face镜像站下载还是不怎么稳定。
modelscope
modelscopeModelScope - 模型列表页
找下有没有需要的模型有的话拷贝下 namespace/model-name如图 使用git clone
git lfs clone https://www.modelscope.cn/namespace/model-name.git 比如我要下的是AI-ModelScope/stable-diffusion-xl-base-1.0那么链接就是 git lfs clone https://www.modelscope.cn/AI-ModelScope/stable-diffusion-xl-base-1.0.git huggingface安装
Python版本至少是3.8
安装hugging face官方提供的下载工具
pip install -U huggingface_hub hf-transfer Windows设置环境变量
在当前窗口设置临时环境变量cmd.exe
set HF_HUB_ENABLE_HF_TRANSFER 1
你也可以设置永久的环境变量可能需要管理员权限
setx HF_HUB_ENABLE_HF_TRANSFER 1 Linux设置环境变量
只是当前窗口下有效
export HF_HUB_ENABLE_HF_TRANSFER1
设置国内镜像 Windowscmd.exe 当前窗口有效
set HF_ENDPOINT https://hf-mirror.com 永久生效
setx HF_ENDPOINT https://hf-mirror.com Linux 当前窗口有效
export HF_ENDPOINThttps://hf-mirror.com 永久生效
# 配置环境变量
vim ~/.bashrc# 在打开文件中的最后一行添加
export HF_ENDPOINThttps://hf-mirror.com 下载模型
huggingface-cli download --token [访问令牌] --resume-download --local-dir-use-symlinks False [模型名] --local-dir [保存位置]
如果你使用的是conda注意看下有没有切换对应的环境
有些模型不需要token也能直接下载把token选项去掉即可
访问令牌获取链接https://huggingface.co/settings/tokens 比如我要下载ChatGLM的模型操作如下 命令如 huggingface-cli download --resume-download --local-dir-use-symlinks False THUDM/chatglm3-6b --local-dir chatglm3-6b 参考文章
如何快速下载huggingface大模型 – padeoe的小站hf-mirror.com - Huggingface 镜像站 点赞你的认可是我创作的动力 收藏你的青睐是我努力的方向 ✏️评论你的意见是我进步的财富