用hexo做网站,西乡移动网站建设,推广公司的广告语,开发一个网站需要几个人文章目录 A 论文出处B 背景B.1 背景介绍B.2 问题提出B.3 创新点 C 模型结构D 实验设计E 个人总结 A 论文出处
论文题目#xff1a;FreeAL: Towards Human-Free Active Learning in the Era of Large Language Models发表情况#xff1a;2023-EMNLP作者单位#xff1a;浙江大… 文章目录 A 论文出处B 背景B.1 背景介绍B.2 问题提出B.3 创新点 C 模型结构D 实验设计E 个人总结 A 论文出处
论文题目FreeAL: Towards Human-Free Active Learning in the Era of Large Language Models发表情况2023-EMNLP作者单位浙江大学、网易
B 背景
B.1 背景介绍
传统的主动学习降低了第一步的标注成本通过迭代标注小部分数据然后通过模型的Uncertainty或Feature-based Diversity进行校验筛选剩余有价值的样本进行再标注。但仍存在两个问题首先是少量标注其实很难训练很好的模型影响后续筛选的步骤其次传统AL还是需要大量的人力成本目前的AL论文大部分都需要标注10%~50%以上的数据才能达到较好的性能。
B.2 问题提出
1大模型可以用Zero/few-shot ICL解决下游任务人力标注几乎为0但光靠大模型部署成本较高效果不总是尽如人意
2小模型直接用小模型需要收集很多标注数据人力成本更高。但可以使用半监督、主动学习缓解一下标注成本但总是需要一定的人力成本。
B.3 创新点
1在没有任何人为监督的情况下提高大模型的泛化能力
2大模型小模型的协同学习方法FreeAL大模型用来主动标注小模型用来过滤和反馈。
C 模型结构 1LLM通过自生成的虚拟样本对未标注的数据进行打标形成初始的标注数据集
2SLM对于LLM的标注结果进行筛选过滤得到clean set用于LLM进行ICL
训练预热Warm-up Training SLM使用LLM生成的初始伪标签进行少量周期的标准训练如交叉熵损失目的是让模型初步学习数据中的简单模式避免过早陷入噪声样本的过拟合。损失计算与排序Loss Calculation and Ranking 对每个训练样本计算交叉熵损失值 l i l_i li并按类别对损失值进行升序排序。损失值较低的样本表明SLM对其预测置信度较高可能对应LLM生成的更准确的伪标签。类别内筛选Class-wise Selection 对每个类别 j j j 的样本集合 D t r a i n j \mathcal{D}_{train}^j Dtrainj选择损失值最小的前 R % R\% R%如论文中设 R 20 R20 R20 的样本构成初步的干净子集 D c l e a n j \mathcal{D}_{clean}^j Dcleanj确保每个类别都有一定比例的“高置信度”样本被保留。聚类去冗余Clustering for Diversity 使用k-medoids算法对 D c l e a n j \mathcal{D}_{clean}^j Dcleanj 中样本的嵌入表示如SLM的隐藏层输出进行聚类选择每个簇的中心样本medoids作为最终演示池 D d e m o j \mathcal{D}_{{demo}}^j Ddemoj 。这保证了演示样本的多样性和代表性避免冗余。合并与反馈Aggregation and Feedback 将所有类别的演示池合并为 D d e m o ∪ D d e m o j \mathcal{D}_{{demo}}\cup\mathcal{D}_{{demo}}^j Ddemo∪Ddemoj 并反馈给LLM用于后续的标签优化。未被选中的样本则交由 D n o i s y \mathcal{D}_{{noisy}} Dnoisy LLM通过上下文学习重新标注。
D 实验设计
1多次迭代性能提升 2相较于ICL的性能提升 E 个人总结
1数据标注依然重要完全监督、弱监督的小模型在很多场景下比未精调大模型强
2利用LLM进行标注是完全可行的小模型可以协同进行过滤、精炼大模型的标签
3 该方法的核心在于用LLM完全替代人类进行样本选择但LLM固有的不确定性、偏见和“幻觉”问题可能导致其选择的样本质量不稳定甚至引入错误或次优的标注反而损害最终模型性能
4论文中展示的有效性可能高度依赖于特定的数据集、任务或使用的LLM其提出的“完全无人”流程在更复杂、动态或领域外OOD的真实世界场景中的鲁棒性和泛化能力尚未得到充分验证。