大学生做网站怎么赚钱,广州海珠网站制,建网站知识,营销型网站排日期#xff1a;2023-12-6
PyLMKit目前集成了LLM模型有两种类型#xff1a;
API付费调用型本地开源模型下载部署
1.API型LLM模型使用教程
1.1.申请 API KEY
根据你想使用的大模型的官网#xff0c;注册账号#xff0c;并申请API KEY#xff0c;如果需要付费调用…日期2023-12-6
PyLMKit目前集成了LLM模型有两种类型
API付费调用型本地开源模型下载部署
1.API型LLM模型使用教程
1.1.申请 API KEY
根据你想使用的大模型的官网注册账号并申请API KEY如果需要付费调用那么还需要进行充值或开通相应服务。
1.2.配置 API KEY
1一个方便的方法是创建一个新的.env文件并在其中配置所有的API密钥信息从而方便地使用不同的模型。.env文件的格式如下
openai_api_key # OpenAIQIANFAN_AK # 百度-千帆
QIANFAN_SK DASHSCOPE_API_KEY # 阿里-通义spark_appid # 科大讯飞-星火
spark_apikey
spark_apisecret
spark_domain generalv3 # generalv2zhipu_apikey # 清华-智谱AIbaichuan_api_key # 百川
baichuan_secret_key hunyuan_app_id # 腾讯-混元
hunyuan_secret_id
hunyuan_secret_key 加载.env文件的方法如下建议将.env文件放置在与您运行的.py文件相同的路径下。
from dotenv import load_dotenv# load .env
load_dotenv()2另一种方法是通过os.environ进行配置下面是一个例子
import os# openai
os.environ[openai_api_key] # 百度
os.environ[qianfan_ak]
os.environ[qianfan_sk] 1.3.模型调用
PyLMKit支持两种调用方式
普通模式invoke(query)流式模式stream(query)
其中query表示用户输入内容简单例子如下
from pylmkit.llms import ChatQianfan # 百度-千帆
from pylmkit.llms import ChatSpark # 讯飞-星火
from pylmkit.llms import ChatZhipu # 清华-智谱
from pylmkit.llms import ChatHunyuan # 腾讯-混元
from pylmkit.llms import ChatBaichuan # 百川
from pylmkit.llms import ChatTongyi # 阿里-通义
from pylmkit.llms import ChatOpenAI # OpenAI
from dotenv import load_dotenv# 加载 .env
load_dotenv()
# 加载模型
model ChatQianfan()# 普通模式
res model.invoke(query如何学习python)
print(res)# 流式模式
res model.stream(query如何学习python)
for i in res:print(i)
2.本地开源LLM模型部署和调用
2.1.开源模型下载
本案例采用一个很小的模型作为例子让大多数人都能成功运行这个Demo。这个Demo在CPU环境也能成功运行并且内存占用小模型名称为 Qwen/Qwen-1_8B-Chat更多 模型名称可以去魔搭社区去找相应的模型链接魔搭社区-文本生成
预先安装 modelscope 依赖包
pip install modelscope下载指定开源模型
from pylmkit.llms import LocalLLMModelLocalLLMModel(model_pathQwen/Qwen-1_8B-Chat, # 模型名称tokenizer_kwargs{revision: master}, model_kwargs{revision: master},languagezh, # zh 表示使用国内环境下载速度快
)下载好的效果如下
2.2.拷贝文件夹到指定位置
将下载模型及文件拷贝到自己想要的位置。一般采用上述下载方式模型都会下载缓存到 C 盘缓存的位置一般在C:\Users\你的用户名\.cache\modelscope\hub 将刚刚下载的qwen/Qwen-1_8B-Chat文件夹剪切保存到 D:/mycode_llm/ 这里举个例子可以自定义路径下主要避免文件太大占满 C 盘。
2.3.安装该开源模型的依赖库
这一步骤很重要一方面要保证你的CUDA环境配置正确、内存足够即硬件资源得够当然CPU环境也可以跑一些模型另一方面则需要到开源模型的github或者根据其它教程安装依赖包和推理加速等依赖文件。
一般在下载的模型文件夹里会有一个README.md文件这是一个关于模型基本信息和安装的说明书不懂安装依赖库的同学可以详细参照着这个教程来安装比如Qwen/Qwen-1_8B-Chat文件夹内容截图如下 这个步骤做好了下一步骤才能正确运行模型不然可能会遇到大量BUG那么这个时候就需要一个一个排查和解决。
2.4.加载本地模型并使用
from pylmkit.llms import LocalLLMModelmodel LocalLLMModel(model_pathD:/mycode_llm/qwen/Qwen-1_8B-Chat, # 前面保存的模型文件路径tokenizer_kwargs{revision: master},model_kwargs{revision: master},languagezh)# 普通模式
res model.invoke(query如何学习python)
print(invoke , res)# 流式模式
res model.stream(query如何学习python)
for i in res:print(stream , i)
效果如下