做网站 做推广需要知道什么,wordpress 创建主题,网络游戏的特点,做塑料的网站名字一、提示调整(Prompt Tuning) 
Prompt Tuning是一种通过改变输入提示语#xff08;input prompt#xff09;以获得更优模型效果的技术。举个例子#xff0c;如果我们想将一条英语句子翻译成德语#xff0c;可以采用多种不同的方式向模型提问#xff0c;如下图所示#xf…一、提示调整(Prompt Tuning) 
Prompt Tuning是一种通过改变输入提示语input prompt以获得更优模型效果的技术。举个例子如果我们想将一条英语句子翻译成德语可以采用多种不同的方式向模型提问如下图所示 这是一个hard prompt tuning示例通过尝试多种输入提示来获得更好的输出效果。  这个案例采用的是硬提示调优hard prompt tuning 方法因为它直接修改了离散的输入标记input tokens而这些标记是不可再分的。 译者注在自然语言处理领域一般将文本进行分词处理将一个句子拆分为一个个离散的单词或标点符号作为input token。每个token代表一个离散的语义单位模型可以根据这些token进行语义理解和生成回复。  例如对于句子 你好很高兴见到你可以将其分解为以下离散的input token  [ 你, 好, , 很, 高兴, 见到, 你,  ]  这些离散的token可以作为模型的输入用于训练或生成对话回复。注意在使用离散的input token时需要将其转换为对应的向量表示如词嵌入表示以便模型能够对其进行处理和学习。 与硬提示调优hard prompt tuning相反软提示调优soft prompt tuning方法Lester等人2021年[1]将输入标记input tokens的嵌入embeddings与可通过反向传播算法backpropagation进行优化的可训练张量tensor连接起来以提高模型在目标任务上的性能。 
伪代码如下所示 soft prompting相关概念的伪代码  与离散的文本prompt不同软提示soft prompts是通过反向传播算法back-propagation获得的因此可以根据已标注数据集的损失函数反馈loss feedback进行调整。 
相较于全参数微调full-finetuning软提示调优soft prompt tuning具有更高的参数效率more parameter-efficient但使用软提示调优的模型性能可能稍逊一筹如下图所示。 该图来自提出soft prompting的论文https://arxiv.org/abs/2104.08691  二、前缀调优Prefix Tuning 
目前有一种特殊的、被独立开发的prompt tuning方式被称为前缀调优prefix tuning  (Li  Liang 2021[2])。其思想是将可训练的张量trainable tensors添加到每个Transformer块中而非像soft prompt tuning中那样只添加输入嵌入(input embeddings)。同时通过全连接层fully connected layers两层并且具有非线性激活函数的小型多层感知机获取soft prompt embedding。 译者注 在使用深度学习模型进行自然语言处理任务时input embeddings常作为模型的第一层进行使用将离散的input token转换为连续的向量表示从而实现对文本的有效建模和处理。  前缀调优技术将预定义的prompt嵌入到模型中以影响模型的生成行为。这项技术可以改变模型对输入的解释方式使得模型能够更好地根据prompt生成相应的输出。 下图说明了常规Transformer块和经过前缀prefix修改的Transformer块之间的区别。  Illustration of prefix tuning  请注意在上图中“全连接层”是指一个小型多层感知机由两个全连接层和一个非线性激活函数组成。这些全连接层将soft prompt嵌入到一个与transformer块输入具有相同维度的特征空间feature space中以确保两层连接时的兼容性。 
使用Python伪代码可以说明常规Transformer块和经过前缀prefix修改的Transformer块之间的区别 prefix tuning的伪代码图示  根据提出prefix tuning的论文该方法在仅训练0.1%的参数的情况下实现了与微调所有层相当的模型性能该实验基于GPT-2模型。此外在大多数情况下prefix tuning的表现甚至优于微调所有层可能是因为该方法涉及的参数较少有助于减少对较小目标数据集的过拟合问题。 最后为了澄清推理过程中soft prompts的使用方式请注意以下几点在学习了soft prompts后在我们针对特定任务对模型进行微调时我们必须将其soft prompts作为前缀prefix提供。这样做可以使模型根据特定任务自定义其回答。此外我们可以拥有多个soft prompts每个对应于不同的任务并且在推理过程能够提供相应的前缀以最好地去处理特定任务。 
三、两者区别 
在性能方面soft prompt tuning和prefix tuning孰强孰弱不幸的是就性能而言目前尚无直接比较soft prompt tuning和prefix tuning的研究结果因为这它们是独立开发并同时发布的方法各自的论文中未进行直接的比较。此外在我查阅参数高效型大语言模型parameter-efficient LLM的最新文献中并没有找到同时包含这两种方法的基准测试benchmark 。 
在prefix tuning这种方法中通过向输入序列input sequence插入特定任务的前缀a task-specific prefix来修改模型的更多层、因此需要微调更多的参数。另一方面soft prompt tuning仅涉及对input prompt embeddings进行微调因此更新的参数较少。这使得soft prompt tuning可能比prefix tuning更轻量化parameter-efficient但也可能限制了其适应更广泛目标任务的能力。 
就性能方面而言我们可以合理地期望prefix tuning可能表现得更好因为它能够调整更多的模型参数以便适应更广泛的新任务。然而这可能是以增加计算资源的消耗和提高模型出现过拟合的风险为代价的。另一方面soft prompt tuning可能具有更高的计算效率但由于微调的参数较少可能会导限制模型的性能。 四、总结 
好啦以上就是Prefix Tuning 和 Prompt Tuning的介绍结合了伪代码进行辅助讲解更容易理解这两者的区别而不是文绉绉的文本介绍对于面试者来说增加容易理解。