当前位置: 首页 > news >正文

做网站 做推广需要知道什么wordpress 创建主题

做网站 做推广需要知道什么,wordpress 创建主题,网络游戏的特点,做塑料的网站名字一、提示调整(Prompt Tuning) Prompt Tuning是一种通过改变输入提示语#xff08;input prompt#xff09;以获得更优模型效果的技术。举个例子#xff0c;如果我们想将一条英语句子翻译成德语#xff0c;可以采用多种不同的方式向模型提问#xff0c;如下图所示#xf…一、提示调整(Prompt Tuning) Prompt Tuning是一种通过改变输入提示语input prompt以获得更优模型效果的技术。举个例子如果我们想将一条英语句子翻译成德语可以采用多种不同的方式向模型提问如下图所示 这是一个hard prompt tuning示例通过尝试多种输入提示来获得更好的输出效果。 这个案例采用的是硬提示调优hard prompt tuning 方法因为它直接修改了离散的输入标记input tokens而这些标记是不可再分的。 译者注在自然语言处理领域一般将文本进行分词处理将一个句子拆分为一个个离散的单词或标点符号作为input token。每个token代表一个离散的语义单位模型可以根据这些token进行语义理解和生成回复。 例如对于句子 你好很高兴见到你可以将其分解为以下离散的input token [ 你, 好, , 很, 高兴, 见到, 你, ] 这些离散的token可以作为模型的输入用于训练或生成对话回复。注意在使用离散的input token时需要将其转换为对应的向量表示如词嵌入表示以便模型能够对其进行处理和学习。 与硬提示调优hard prompt tuning相反软提示调优soft prompt tuning方法Lester等人2021年[1]将输入标记input tokens的嵌入embeddings与可通过反向传播算法backpropagation进行优化的可训练张量tensor连接起来以提高模型在目标任务上的性能。 伪代码如下所示 soft prompting相关概念的伪代码 与离散的文本prompt不同软提示soft prompts是通过反向传播算法back-propagation获得的因此可以根据已标注数据集的损失函数反馈loss feedback进行调整。 相较于全参数微调full-finetuning软提示调优soft prompt tuning具有更高的参数效率more parameter-efficient但使用软提示调优的模型性能可能稍逊一筹如下图所示。 该图来自提出soft prompting的论文https://arxiv.org/abs/2104.08691 二、前缀调优Prefix Tuning 目前有一种特殊的、被独立开发的prompt tuning方式被称为前缀调优prefix tuning  (Li Liang 2021[2])。其思想是将可训练的张量trainable tensors添加到每个Transformer块中而非像soft prompt tuning中那样只添加输入嵌入(input embeddings)。同时通过全连接层fully connected layers两层并且具有非线性激活函数的小型多层感知机获取soft prompt embedding。 译者注 在使用深度学习模型进行自然语言处理任务时input embeddings常作为模型的第一层进行使用将离散的input token转换为连续的向量表示从而实现对文本的有效建模和处理。 前缀调优技术将预定义的prompt嵌入到模型中以影响模型的生成行为。这项技术可以改变模型对输入的解释方式使得模型能够更好地根据prompt生成相应的输出。 下图说明了常规Transformer块和经过前缀prefix修改的Transformer块之间的区别。  Illustration of prefix tuning 请注意在上图中“全连接层”是指一个小型多层感知机由两个全连接层和一个非线性激活函数组成。这些全连接层将soft prompt嵌入到一个与transformer块输入具有相同维度的特征空间feature space中以确保两层连接时的兼容性。 使用Python伪代码可以说明常规Transformer块和经过前缀prefix修改的Transformer块之间的区别 prefix tuning的伪代码图示 根据提出prefix tuning的论文该方法在仅训练0.1%的参数的情况下实现了与微调所有层相当的模型性能该实验基于GPT-2模型。此外在大多数情况下prefix tuning的表现甚至优于微调所有层可能是因为该方法涉及的参数较少有助于减少对较小目标数据集的过拟合问题。 最后为了澄清推理过程中soft prompts的使用方式请注意以下几点在学习了soft prompts后在我们针对特定任务对模型进行微调时我们必须将其soft prompts作为前缀prefix提供。这样做可以使模型根据特定任务自定义其回答。此外我们可以拥有多个soft prompts每个对应于不同的任务并且在推理过程能够提供相应的前缀以最好地去处理特定任务。 三、两者区别 在性能方面soft prompt tuning和prefix tuning孰强孰弱不幸的是就性能而言目前尚无直接比较soft prompt tuning和prefix tuning的研究结果因为这它们是独立开发并同时发布的方法各自的论文中未进行直接的比较。此外在我查阅参数高效型大语言模型parameter-efficient LLM的最新文献中并没有找到同时包含这两种方法的基准测试benchmark 。 在prefix tuning这种方法中通过向输入序列input sequence插入特定任务的前缀a task-specific prefix来修改模型的更多层、因此需要微调更多的参数。另一方面soft prompt tuning仅涉及对input prompt embeddings进行微调因此更新的参数较少。这使得soft prompt tuning可能比prefix tuning更轻量化parameter-efficient但也可能限制了其适应更广泛目标任务的能力。 就性能方面而言我们可以合理地期望prefix tuning可能表现得更好因为它能够调整更多的模型参数以便适应更广泛的新任务。然而这可能是以增加计算资源的消耗和提高模型出现过拟合的风险为代价的。另一方面soft prompt tuning可能具有更高的计算效率但由于微调的参数较少可能会导限制模型的性能。 四、总结 好啦以上就是Prefix Tuning 和 Prompt Tuning的介绍结合了伪代码进行辅助讲解更容易理解这两者的区别而不是文绉绉的文本介绍对于面试者来说增加容易理解。
http://www.pierceye.com/news/334/

相关文章:

  • 成都新线加做网站网站建设主要做什么
  • 提高网站排名上海知名网站建设公司排名
  • 网站的空间需要续费么公司注册网上查名
  • 太原专业网站制作防伪查询网站
  • 青岛做网站辽宁网站建设专业学校
  • 长春网站建设长春顺德搜索seo网络推广
  • 门户网站群建设企业网站建设商城
  • wordpress站内跳转米问外贸论坛
  • 网站设计模板图中山做网站专业的公司
  • iis的网站登录没反应公司局域网
  • 上海企业网站优化公司使用asp.net制作网站的整体过程
  • 个性化网站做dj音叉网站平台
  • 深圳网站建设外包公司排名php做网站的支付功能
  • 文山 网站建设 滇icpwordpress 微信支付
  • 常见的企业网站有哪些舞台灯光网站建设公司
  • 广州软件网站开发简易个人网页模板
  • wordpress首页加图片电脑优化大师
  • ic电子网站建设电商网站建设方案PPT
  • 网站开发资金规模it行业做网站一个月多少钱
  • 建设公共网站的手续企业网站外包托管推广
  • 做盗版小说网站怎么样怎么样做美术招生信息网站
  • 阿里云一键wordpresssem优化推广
  • 宁波网站建设公司优选亿企邦东南融通网站建设
  • 网站外部外链建设wordpress 修改源码
  • 大学社团做网站网站广告弹出来代码
  • 深圳苏州企业网站建设服务商建设彩票网站制作
  • 苏州做网站最好公司网站代码 公告栏 php
  • 网站怎么自己做推广网站建设公司-跨界鱼科技
  • 网站如何做下载链接阿里云服务器上做淘宝客网站
  • 电子类网站建设需要多少钱大型h5手游平台