当前位置: 首页 > news >正文

济宁网站建设方面广州优质网站排名公司

济宁网站建设方面,广州优质网站排名公司,重庆公司企业网站建设,wordpress incategory[更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差#xff0c;同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性#xff0c;并且和原始训练数据更加接近#xff0c;也更不像人话。最近的研… [更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性并且和原始训练数据更加接近也更不像人话。最近的研究克服了这些困难并且友好的交互页面能让每个人尝试这些模型。如 ChatGPT 的服务已经把亮点放在强大的模型如 GPT-4并且引发了爆发式的开源替代品变成主流如 Llama。我们认为这些技术将持续很长一段时间并且会越来越集成到日常产品中。 这篇博客分成一下几个部分: 文本生成的简明背景许可证Hugging Face 的生态中面向大语言模型的服务参数高效的微调 文本生成的简明背景 文本生成模型本质上是以补全文本或者根据提示词生成文本为目的训练的。补全文本的模型被称之为条件语言模型 (Causal Language Models)有著名的例子比如 OpenAI 的 GPT-3 和 Meta AI 的 Llama。 Causal LM Output 下面你最好要了解型微调这是把一个大语言模型中的知识迁移到另外的应用场景的过程我们称之为一个 下游任务 。这些任务的形式可以是根据提示的。模型越大就越能泛化到预训练数据中不存在但是可以在微调中学习到的提示词上。 条件语言模型有采用基于人类反馈的强化学习 (Reinforcement Learning from Human Feedback, RLHF)。这个优化过程主要基于答复文本的自然性和忠实性而不是答复的检验值。解释 RLHF 的工作原理超出了本博客的范围但是你可以在 这里 了解。 举例而言GPT-3 是一个条件 基本 语言模型作为 ChatGPT 的后端通过 RLHF 在对话和提示文本上做微调。最好对这些模型做区分。 在 Hugging Face Hub 上你可以同时找到条件语言模型和在提示文本上微调过的条件语言模型 (这篇博客后面会给出链接)。Llama 是最早开源并且能超过闭源模型的大语言模型之一。一个由 Together 领导的研究团队已经复线了 Llama 的数据集称之为 Red Pajama并且已经在上面训练和微调了大语言模型。你可以在 这里 了解。以及在 Hugging Face Hub 上找到 模型。截止本博客写好的时候三个最大的开源语言模型和其许可证分别为 MosaicML 的 MPT-30BSalesforce 的 XGen 和 TII UAE 的 Falcon全都已经在 Hugging Face Hub 上开源了。 最近Meta 开放了 Llama 2其许可证允许商业用途。截止目前 Llama 2 能在各种指标上超过任何其他开源模型。Llama 2 在 Hugging Face Hub 上的 checkpoint 在 transformers 上兼容并且最大的 checkpoint 人们都可以在 HuggingChat 上尝试。你可以通过 这篇博客 学习到如何在 Llama 2 上微调部署和做提示词。 第二种文本生成模型通常称之为文本到文本的生成模型。这些模型在文本对的数据集上训练这些数据集或者是问答形式或者是提示和反馈的形式。最受欢迎的是 T5 和 BART (目前为止以及不是最新的技术了)。Google 最近发布了 FLAN-T5 系列的模型。FLAN 是最近为提示任务设计的技术而 FLAN-T5 便是完全由 T5 用 FLAN 微调得到的模型。目前为止FLAN-T5 系列的模型是最新的技术并且开源可以在 Hugging Face Hub 上看到。注意这和用条件语言模型在提示任务的微调下是不一样的尽管其输入和输出形式类似。下面你能看到这些模型的原理。 FLAN-T5 Illustration 拥有更多开源的文本生成模型能让公司保证其数据隐私部署下游更快并且减少购买闭源 API 的支出。Hugging Face Hub 上所有开源的条件语言模型都能在 这里 找到并且文本到文本的生成模型都能在 这里 找到。 Hugging Face 用爱和 BigScience 与 BigCode 创造的模型 Hugging Face 引领了两家科研初创 BigScience 和 BigCode。它们分别创造了两个大语言模型 BLOOM 和 StarCoder 。 BLOOM 是一个以 46 种自然语言和 13 种编程语言训练的条件语言模型是第一个比 GPT-3 有更多参数量的开源模型。你能在 BLOOM 的文档 上下载所需的所有 checkpoint。 StarCoder 是一个以 GitHub 上可访问的代码作为数据集以 Fill-in-the-Middle 形式训练的语言模型。它不是以提示文本来微调的所以它更适合对给定代码做补全任务比如把 Python 翻译到 C解释概念 (什么是递归)或者假扮终端。你可以在 这里 找到 StarCoder 所有的 checkpoints。它也有对应的 VSCode 扩展。 本博客中提及的模型使用代码段都或者在模型主页或者在该类模型的文档中。 许可证 许多文本生成模型要么是闭源的要么是许可证限制商业使用。幸运的是开源模型开始出现并且受社区青睐用于进一步开发、微调、部署到项目中。下面你能找到一些完全开源的大型条件语言模型。 Falcon 40BXGenMPT-30BPythia-12BRedPajama-INCITE-7BOpenAssistant (Falcon variant) 有两个代码生成模型BigCode 的 StarCoder 和 Salesforce 的 Codegen。它们提供了不同大小的模型 checkpoint。除了 在提示文本上微调的 Codegen 之外使用了开源或者 open RAIL 许可证。 Hugging Face Hub 也有许多为提示文本或聊天微调的模型根据你的需求不同可以选择不同风格和大小。 MPT-30B-ChatMosaic ML使用 CC-BY-NC-SA 许可证不允许商业用途。但是MPT-30B-Instruct 使用 CC-BY-SA 3.0 许可证允许商业使用。Falcon-40B-Instruct 和 Falcon-7B-Instruct 都使用 Apache 2.0 许可证所以允许商业使用。另外一系列受欢迎的模型是 OpenAssistant部分是在 Meta 的 Llama 使用个性化的提示文本微调得到的。因为原本的 Llama 只允许研究用途OpenAssistant 中使用 Llama 的部分不能完全开源。但是也有 OpenAssistant 模型建立在完全开源的模型之上比如 Falcon 或者 pythia。StarChat Beta 是 StarCoder 通过提示文本微调的版本使用 BigCode Open RAIL-M v1 许可证允许商用。Salesforce 的用提示文本微调的模型 XGen model只允许研究用途。 如果你想要用一个现成的提示文本数据集微调模型你需要知道它是怎么来的。一些现成的提示文本数据集要么是由大量人工编写要么是现有的模型的输出 (比如 ChatGPT 背后的模型)。Stanford 的 ALPACA 数据集由 ChatGPT 背后的数据集的输出组成。另外不少人工编写的数据集是开源的比如 oasst1 (由数千名志愿者输出) 或者 databricks/databricks-dolly-15k。如果你想自己创建数据集那你可以看 the dataset card of Dolly 来学习创建提示文本数据集。模型在数据集上微调的过程可以分布式进行。 你可以通过如下表格了解一些开源或者开放的模型。 ModelDatasetLicenseUseFalcon 40BFalcon RefinedWebApache-2.0文本生成SalesForce XGen 7B由 C4, RedPajama 和其他数据集混合Apache-2.0文本生成MPT-30B由 C4, RedPajama 和其他数据集混合Apache-2.0文本生成Pythia-12BPileApache-2.0文本生成RedPajama INCITE 7BRedPajamaApache-2.0文本生成OpenAssistant Falcon 40Boasst1 和 DollyApache-2.0文本生成StarCoderThe StackBigCode OpenRAIL-M代码生成Salesforce CodeGenStarcoder DataApache-2.0代码生成FLAN-T5-XXLgsm8k, lambada, 和 esnliApache-2.0文本到文本生成MPT-30B ChatShareGPT-Vicuna, OpenAssistant Guanaco 和更多CC-By-NC-SA-4.0聊天MPT-30B Instructduorc, competition_math, dolly_hhrlhfCC-By-SA-3.0提示任务Falcon 40B InstructbaizeApache-2.0提示任务Dolly v2DollyMIT文本生成StarChat-βOpenAssistant GuanacoBigCode OpenRAIL-M代码提示任务Llama 2非公开的数据集Custom Meta License (允许商用)文本生成 Hugging Face 的生态中面向大语言模型的服务 文本生成推理 使用这些大模型为多用户提供并发服务时想要降低响应时间和延迟是一个巨大的挑战。为了解决这个问题Hugging Face 发布了 text-generation-inference (TGI)这是一个开源的大语言模型部署解决方案它使用了 Rust、Python 和 gRPC。TGI 被整合到了 Hugging Face 的推理解决方案中包括 Inference Endpoints 和 Inference API所以你能通过简单几次点击创建优化过的服务接入点或是向 Hugging Face 的推理 API 发送请求而不是直接将 TGI 整合到你的平台里。 Screenshot from HuggingChat 当前 TGI 助力实现了 HuggingChat这是 Hugging Face 的开源 LLM 聊天界面。目前这项服务背后是来自 OpenAssistant 的模型。你可以随意和 HuggingChat 聊天并且使用网页搜索功能来检索当前网页的内容。你还可以为每次响应提供反馈供模型的作者进行优化训练。HuggingChat 的界面同样也是 开源 的我们正持续不断完善它争取加入更多功能比如在聊天过程中生成图片。 HuggingChat Search 最近Hugging Face Spaces 上发布了用于 HuggingChat 的 Docker 模板。这样一来每个人都可以轻松部署和自定义自己的 HuggingChat 实例了。你可以在 这里 基于众多大语言模型 (包括 Llama 2) 创建自己的实例。 HuggingChat Space 如何寻找最佳模型 Hugging Face 设立了一个 大语言模型排名。该排名是通过社区提交的模型在不同指标上的测试结果在 Hugging Face 的集群上的表现评估的。如果你无法找到你想要的模型或者方向你可以在 这里 设置过滤条件。 Open LLM Leaderboard 你也能找到 大语言模型的表现排名它评估了 Hugging Face Hub 上大语言模型输出的中间值。 参数高效的微调 (PEFT) 如果你想用你自己的数据集来微调一个模型在客户端硬件上微调并部署基本是不可能的 (因为提示模型和原本模型的大小一样)。PEFT 是一个实现参数高效的微调技术的库。这意味着不需要训练整个模型你只需要训练少量参数允许更快速的训练而只有非常小的性能损失。通过 PEFT你可以使用 LoRAprefix tuning, prompt tuning 和 p-tuning。 以下更多资源可以帮助你了解和文本生成有关的更多信息。 更多资源 我们和 AWS 一起发布了基于 TGI 的 LLM 开发的深度学习容器称之为 LLM Inference Containers。戳 这里 了解。文本生成任务页面。PEFT 发布的 博客。阅读了解 Inference Endpoints 如何使用 TGI。阅读 如何用 TransformersPEFT 和提示词微调 Llama 2。 宝子们可以戳 阅读原文 查看文中所有的外部链接哟 英文原文: https://hf.co/blog/os-llms 原文作者: Merve Noyan 译者: Vermillion-de 审校/排版: zhongdongy (阿东)
http://www.pierceye.com/news/294588/

相关文章:

  • 平顶山市哪里有做网站的高端的扬中网站建设
  • 网站定制电话如何自己开公众号
  • app开发网站建设及开发专业济南网站建设价格
  • 网站建设新闻分享免费制作网站app
  • 海口网站建设高端wordpress 论坛那
  • 谁能帮我做网站百度推广登录平台怎么收费
  • 有关于网站建设的论文如何开发一个微信公众号
  • 深圳网站建制作网上写文章用什么软件
  • 网站模版自适应网站建设全包方案
  • 广州网站建设鞍山家电网站首页制作
  • 西安注册公司网站网站建设找a金手指
  • 浙江省住房和城乡建设厅网站打不开设计书籍频道开放说明
  • 阿里巴巴 网站建设遵义网警
  • 宁夏建设厅网站官网如何做DJ网站
  • 龙岩做网站公司哪家好erp系统与网站对接长沙
  • 做二手房需要用到哪些网站搜集房源找人做设计的网站
  • 建设银行河北分行招聘网站可以下载新闻视频的网站
  • 凡客官网旗舰店襄阳seo关键词优化公司
  • 区域门户网站源码健身网站建设
  • 动漫网站建设赚钱吗三端互通传奇手游开服列表
  • 网站建设前的需求分析手机免费制作网站模板免费下载
  • 网站兼容ie7接私活做网站要不要签合同
  • 广州网站建设首选快优wordpress拖拽建站
  • 网站开发 播放音频amr个人网站设计案例
  • 建设一个网站可以采用那几方案常用的网页制作工具有什么
  • 摄影看图网站河南省交通工程造价信息网
  • 网站架构发展历程的思考和心得体会软件开发网站开发培训
  • 陕西天工建设有限公司网站长安网站建设哪家好
  • 东莞网站的建设重庆妇科医院哪家好医院公立医院
  • 北京用网站模板建站wordpress中文 插件下载