当前位置: 首页 > news >正文

只用php做网站icp经营性许可证申请条件

只用php做网站,icp经营性许可证申请条件,公司注册地址的要求,公主岭网站建设一.介绍 OpenAI 在国内用户注册会遇到各种阻力#xff0c;目前可行的方法是使用本地数据集的功能实现联网搜索并给出回答#xff0c;提炼出TXT、WORD 文档里的内容。 现在主流的技术是基于强大的第三方开源库#xff1a;LangChain 。 文档地址#xff1a;#x1f99c;…一.介绍 OpenAI 在国内用户注册会遇到各种阻力目前可行的方法是使用本地数据集的功能实现联网搜索并给出回答提炼出TXT、WORD 文档里的内容。     现在主流的技术是基于强大的第三方开源库LangChain 。 文档地址️ Langchain ​    这个库目前非常活跃每天都在迭代已经有 22k 的 star更新速度飞快。     LangChain 是一个用于开发由语言模型驱动的应用程序的框架。他主要拥有 2 个能力 可以将 LLM 模型与外部数据源进行连接 允许与 LLM 模型进行交互 LLM 模型Large Language Model大型语言模型 1.1 基础功能 LLM 调用 支持多种模型接口比如 OpenAI、Hugging Face、AzureOpenAI ... Fake LLM用于测试 缓存的支持比如 in-mem内存、SQLite、Redis、SQL 用量记录 支持流模式就是一个字一个字的返回类似打字效果 Prompt管理支持各种自定义模板 拥有大量的文档加载器比如 Email、Markdown、PDF ... 对索引的支持 文档分割器 向量化 对接向量存储与搜索比如 Chroma、Pinecone、Qdrand Chains LLMChain 各种工具Chain LangChainHub 1.2 必知概念 相信大家看完上面的介绍多半会一脸懵逼。不要担心上面的概念其实在刚开始学的时候不是很重要当我们讲完后面的例子之后在回来看上面的内容会一下明白很多。 但是这里有几个概念是必须知道的。 1.3 Text Spltters 文本分割 顾名思义文本分割就是用来分割文本的。为什么需要分割文本因为我们每次不管是做把文本当作 prompt 发给 Langchian embedding 功能都是有字符限制的。 比如 我们将一份300页的 pdf 发给 LangChian让他进行总结这里就需要使用文本分割器去分割我们 loader 进来的 Document。 1.4 Vectorstores 向量数据库 因为数据相关性搜索其实是向量运算。所以不管我们是使用 openai api embedding 功能还是直接通过向量数据库直接查询都需要将我们的加载进来的数据 Document 进行向量化才能进行向量运算搜索。转换成向量也很简单只需要我们把数据存储到对应的向量数据库中即可完成向量的转换。 官方也提供了很多的向量数据库供我们使用。 https://python.langchain.com/en/latest/modules/indexes/vectorstores.html 1.5 Chain 链 我们可以把 Chain 理解为任务。一个 Chain 就是一个任务当然也可以像链条一样一个一个的执行多个链。​​ 1.6 Embedding 用于衡量文本的相关性。这个也是 LangChain 能实现构建自己知识库的关键所在。 他相比 fine-tuning 最大的优势就是不用进行训练并且可以实时添加新的内容而不用加一次新的内容就训练一次并且各方面成本要比 fine-tuning 低很多。 二.实战 通过上面的必备概念大家应该已经可以对 LangChain 有了一定的了解但是可能还有有些懵。 视频教程 LangChain接入本地数据实操_哔哩哔哩_bilibiliLangChain接入本地数据实操, 视频播放量 8725、弹幕量 0、点赞数 288、投硬币枚数 109、收藏人数 974、转发人数 200, 视频作者 灵镜实验室, 作者简介 连接科技与生活 | 透过热闹看门道相关视频LangChain: 使用AI连接数据源的时代已经到来了langchain-chatglm本地私有化部署企业专有大语言模型建立企业的私有知识库利用LangChain和国产大模型ChatGLM-6B实现基于本地知识库的自动问答LangChain OpenAI 5分钟实现自然语言SQL数据挖掘LangChain GLM 本地知识库Streamlit LangChain - 10分钟创建AI Web应用PDF聊天机器人LangChain03-九个经典用例聊天、数据分析、评价系统等OpenAI LangChain Spark - 基于自然语言的海量企业级数据查询与分析13分钟解读LangChain精译中字5分钟学会搭建本地知识库聊天机器人(基于GPT4LlamaindexLangChain)https://www.bilibili.com/video/BV18X4y1t79H/?spm_id_from333.337.search-card.all.click 注意这个视频只是快速查看本次实战搭建本地知识库实操的demo其中有很多细节是略过的切记不能直接效仿。 2.1 搭建本地ChatGLM 项目地址GitHub - THUDM/ChatGLM-6B: ChatGLM-6B开源双语对话语言模型 | An Open Bilingual Dialogue Language Model 官网介绍 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型基于 General Language Model (GLM) 架构具有 62 亿参数。结合模型量化技术用户可以在消费级的显卡上进行本地部署INT4 量化级别下最低只需 6GB 显存。 ChatGLM-6B 使用了和 ChatGPT 相似的技术针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练辅以监督微调、反馈自助、人类反馈强化学习等技术的加持62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答更多信息请参考我们的博客。 第一步本地安装 Python 这一步暂略可以自行下载安装 Python 环境。 Python 下载地址Download Python | Python.org ​注意安装 9 以上版本建议安装 3.93.17。 安装手册 CentOS 7 的 Python2 升级成 Python 3.9.17_python 3.9.17 下载_查里王的博客-CSDN博客 第二步下载项目程序包 下载地址见附件直接下载下来并解压。我这里解压到 /root/chatgpt/ChatGLM-6B-main ChatGLM-6B-main下载附件包如下 第三步下载模型包 chatglm(14GB存储空间) 下载地址GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型 备选地址THUDM/chatglm-6b at main 注意海外的huggingface针对国内的IP是封锁的无法直接下载可以使用我存放在百度企业网盘里的源码包 注意百度企业网盘不让上传14GB的数据集百度网盘单次只能上传4GB由于个人没有开通网盘所以只能通过公网下载 官网介绍 ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型基于 General Language Model (GLM) 架构具有 62 亿参数。结合模型量化技术用户可以在消费级的显卡上进行本地部署INT4 量化级别下最低只需 6GB 显存。ChatGLM-6B 使用了和 ChatGLM 相同的技术针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练辅以监督微调、反馈自助、人类反馈强化学习等技术的加持62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。 注意下载后放到第二步程序包下自行创建目录 chatglm-6b如下 #cd /root/.cache/huggingface/hub/models--THUDM--chatglm-6b/ yum -y install gcc-c pip install --upgrade pip setuptools wheel pip install hnswlib langchain chromadb urllib31.26.6 sentence_transformers unstructured tiktoken gradio mdtex2html sentencepiece accelerate torch cpm_kernels protobuf transformers 注意建议更新pip的源别用阿里云速度奇慢无比推荐用中科大或者豆瓣的源地址作为PIP库 Python pip更换升级源_更新pip的源_查里王的博客-CSDN博客 第四步运行网页版 demo vim 修改一下web_demo.py的配置 vim /root/chatgpt/ChatGLM-6B-main 模型默认是访问huggingface的在线库必须更改为本地的chatglb-6b的离线库的路径 如果本地有GPU可以使用 half().cuda() 如果本地没有GPU就需要修改成 float() 执行如下命令运行网页版本的 demo如下 cd /root/chatgpt/ChatGLM-6B-main python web_demo.py 程序会运行一个 Web Server并输出地址。在浏览器中打开输出的地址即可使用。最新版 Demo 实现了打字机效果速度体验大大提升。注意由于国内 Gradio 的网络访问较为缓慢启用 demo.queue().launch(shareTrue, inbrowserTrue) 时所有网络会经过 Gradio 服务器转发导致打字机体验大幅下降现在默认启动方式已经改为 shareFalse如有需要公网访问的需求可以重新修改为 shareTrue 启动。 第五步测试网页版程序 浏览器打开地址 并访问输入问题可以看到 ChatGLM 会给予回复。 2.2 搭建本地数据切片向量化 Embeddings ChromaDB 把Langchain和中文向量文本字符集下载到本地目录并进行解压 unzip /root/db/LangChainTest-main.zipunzip /text2vec-base-chinese.zip 修改# vim docIndex.py的脚本 cd /root/db/LangChainTest-mainvim docIndex.py 1.将model_name xxxxxx换成解压路径例如/root/db/text2vec-base-chinese 2.将embeddings_model_name /root/db/text2vec-base-chinese embeddings HuggingFaceEmbeddings(model_name/root/db/text2vec-base-chinese)也修改成解压的路径 执行 docIndex.py将txt文本内容进行向量化入库到chromaDB中 最后把main注释掉取消以下的内容注释 if __name__ __main__:#main()embeddings_model_name /root/db/text2vec-base-chineseembeddings HuggingFaceEmbeddings(model_name/root/db/text2vec-base-chinese)db Chroma(persist_directorypersist_directory, embedding_functionembeddings, client_settingsCHROMA_SETTINGS)print(db.similarity_search(产品线划分是什么样的)) 可以输出内容的即表示正确由于客户提供的文档签署了保密协议我这里就不贴图了 三.LangChain 调用 ChatGLM 修改main.py中的embeddings的模型地址 vim /root/db/LangChainTest-main/main.py 将model_name修改成/root/db/text2vec-base-chinese if __name__ __main__:embeddings HuggingFaceEmbeddings(model_name/root/db/text2vec-base-chinese)db Chroma(persist_directorypersist_directory, embedding_functionembeddings, client_settingsCHROMA_SETTINGS)retriever db.as_retriever(search_kwargs{k: target_source_chunks})#llm OpenAI(model_nametext-ada-001, n2, best_of2)llm ChatGLM()prompt_template 基于以下已知信息简洁和专业的来回答用户的问题。如果无法从中得到答案请说 根据已知信息无法回答该问题 或 没有提供足够的相关信息不允许在答案中添加编造成分答案请使用中文。已知内容:{context}问题:{question}promptA PromptTemplate(templateprompt_template, input_variables[context, question])chain_type_kwargs {prompt: promptA}qa RetrievalQA.from_chain_type(llmllm, retrieverretriever, chain_typestuff,chain_type_kwargschain_type_kwargs, return_source_documentsTrue)while True:query input(\n请输入问题: )if query exit:breakres qa(query)answer, docs res[result], res[source_documents]print(\n\n 问题:)print(query)print(\n 回答:)print(answer)for document in docs:print(\n document.metadata[source] :) 最后的结果就会提示请输入问题表示搭建本地库成功
http://www.pierceye.com/news/107119/

相关文章:

  • 网站的收录情况怎么查企业网银怎么登录
  • 网站开发会计处理wordpress阅读随机增加
  • 兰州做网站公司哪家好公司网站建设是什么意思
  • 小区物业管理网站开发报告deal 网站要怎么做
  • seo站长助手wordpress 注册侧边栏
  • 做网站是要编程吗那些网站是html5做的
  • 网站开发图在网站做电子画册
  • 怎样建一个英文网站wordpress 多用户商城
  • 制作一个自适应网站源码app在线生成器
  • Dw做html网站项目管理软件有哪些
  • 天津网站建设定制软件开发服务公司
  • 做企业网站cms减肥网站源码
  • 建设工程检测预约网站猎头公司怎么找
  • 北京网站手机站建设公司手机网站开发常用工具
  • 太原做网站联系方式论坛的网站开发项目
  • drupal 做的网站网站设计与网站制作
  • 我要表白网站在线制作wordpress朗读句子插件
  • 黑龙江建设网官方怎么提高seo关键词排名
  • 拍卖网站开发多少钱十堰秦楚网招聘公告
  • 区域城市分站网站怎么做慈溪网站开发
  • 广州天河网站制作互联网十创业项目
  • 百度是不是只有在自己的网站发布才会被收录完备的常州网站优化
  • 响应式网站开发需要的条件百度信息流广告推广
  • 英文网站建设推广joomla drupal wordpress
  • 什么网站做简历免费下载怎么申请专线访问国际网络
  • 南三环做网站的公司网站开发开题报告计划进度安排
  • 我想建一个网站怎么建微信 网站提成方案点做
  • 苏中建设集团官方网站网络推广文章的方法
  • 月嫂云商城网站建设切换国外ip的软件
  • 沧州网站建设 凯航怎么样建立一个网站