当前位置: 首页 > news >正文

网站建设中所需条件常州外贸人才网

网站建设中所需条件,常州外贸人才网,展馆公司,网页加速器安卓深度学习自然语言处理 原创作者#xff1a;Winnie 今天向大家介绍一个新的开源大语言模型——LLEMMA#xff0c;这是一个专为数学研究而设计的前沿语言模型。 LLEMMA解数学题的一个示例 LLEMMA的诞生源于在Proof-Pile-2数据集上对Code Llama模型的深度训练。这个数据集是一个… 深度学习自然语言处理 原创作者Winnie 今天向大家介绍一个新的开源大语言模型——LLEMMA这是一个专为数学研究而设计的前沿语言模型。 LLEMMA解数学题的一个示例 LLEMMA的诞生源于在Proof-Pile-2数据集上对Code Llama模型的深度训练。这个数据集是一个科学论文、数学相关网页和数学代码的综合体。 过去虽然有数学专用的模型但许多模型都有各种限制。例如有的模型是封闭访问这使得它们无法为更广泛的研究所用。有的则技术上稍显落后。 但LLEMMA的出现改变了这一局面。它不仅在MATH基准测试上创下了新高甚至超越了某些还未对外公开的顶尖模型如Minerva。更让人欣喜的是LLEMMA无需额外的调整即可直接应用于工具和定理证明。 让我们一起了解下这个模型背后的技术吧 Paper: Llemma: An Open Language Model For Mathematics  Link: https://arxiv.org/pdf/2310.10631.pdfCode: https://github.com/EleutherAI/math-lm -辅导界的小米带你冲刺ACL2024 数据集 LLEMMA是专为数学设计的大型语言模型具有70亿和340亿参数。这一模型的训练方法是在Proof-Pile-2.2.1数据集上继续对Code Llama模型进行预训练。以下是关于该数据集的简要说明 Proof-Pile-2这是一个包含550亿令牌的综合数据集融合了科学论文、数学相关的网络内容和数学代码其知识截止于2023年4月不包括特定的Lean证明步骤子集。代码为了适应数学家日益重视的计算工具如数值模拟和计算代数系统研究团队创建了名为AlgebraicStack的源代码数据集。这个数据集涉及17种编程语言包括数值、符号和正式的数学内容共计110亿令牌。网络数据研究团队利用了OpenWebMath数据集这是一个精选的、与数学相关的高质量网络页面集合总计150亿令牌。科学论文使用了名为RedPajama的ArXiv子集其中包含290亿令牌。通用自然语言和代码数据作为训练数据的补充研究团队还融合了一些通用领域的数据并以Proof-Pile-2为主还融合了Pile数据集和RedPajama的GitHub子集。 模型训练 模型初始化所有模型都从Code Llama初始化随后在Proof-Pile-2上接受更多的训练。 训练量 LLEMMA 7B2000亿令牌的训练。LLEMMA 34B500亿令牌的训练。 训练工具和硬件使用GPT-NeoX库在256个A100 40GB GPU上进行训练。使用了各种先进技术如Tensor并行、ZeRO Stage 1分片优化器状态、Flash Attention 2等以提高效率和减少内存需求。 训练细节 LLEMMA 7B经过42,000步训练每个全局批次有400万令牌上下文长度为4096令牌占用A100大约23,000小时。学习率开始从1 × 10^(-4)渐温然后逐渐减少。虽然计划是48,000步训练但在42,000步时由于NaN损失中断了。LLEMMA 34B经过12,000步训练每个全局批次有400万令牌上下文长度为4096令牌约占用47,000个A100小时。学习率从5 × 10^(-5)开始逐渐增加然后逐渐减少。RoPE调整在训练LLEMMA 7B前RoPE的基本周期从θ 1,000,000减少到θ 10,000目的是为了在LLEMMA 7B上进行长上下文微调。而LLEMMA 34B维持了θ 1,000,000的原始设置。 实验设置与评估结果 作者通过少样本评估对LLEMMA模型进行比较并专注于没有进行微调的最新模型。具体来说他们使用了使用思维链推理和多数投票在MATH和GSM8k等基准上进行了评估。 评估范围 数学问题求解测试模型在思维链推理和多数投票的数学问题上的表现。少样本工具使用和正式定理证明研究模型在这些方面的表现。记忆和数据混合的影响分析这些因素如何影响模型的表现。 使用CoT解决数学任务 评估数据集和任务 MATH一个来自高中数学竞赛的问题集模型必须生成一个LATEX的解决方案且其答案需要与参考答案匹配。GSM8k包含中学数学问题的数据集。OCWCourses从MIT的开放课程Ware提取的STEM问题。MMLU-STEMMMLU基准中的18个子集涵盖57个主题。SAT包含2023年5月的SAT考试中不包含图形的数学问题的数据集。 作者与以下模型进行了比较 Minerva这个模型在技术内容的数据集上继续预训练了PaLM语言模型。Code LlamaLLEMMA继续预训练的初始化模型。Llama 2Code Llama在代码上继续预训练的初始化模型。 对于开源的模型作者使用他们的评估套件来报告分数该套件是Language Model Evaluation Harness的一个分支。对于Minerva模型作者报告了Lewkowycz等人在2022年文章中的基准分数。 LLEMMA在Proof-Pile-2上的继续预训练提高了五个数学基准测试的少样本性能。LLEMMA 34B在GSM8k上比Code Llama提高了20个百分点在MATH上提高了13个百分点LLEMMA 7B的表现超过了专有的Minerva模型。到目前为止LLEMMA在所有开放权重语言模型上均表现最佳。因此可以得出结论Proof-Pile-2上的继续预训练对于提高预训练模型的数学问题解决能力是有效的。 此外LLEMMA是在与数学相关的多样化数据上预训练的而不是为特定任务进行调优。因此预期LLEMMA可以通过任务特定的微调和少样本提示适应许多其他任务。 调用计算工具解决数学任务 这些任务涉及在有计算工具的情况下解决问题主要评估了以下内容 MATHPython模型被提示以自然语言交替描述解决方案的步骤然后使用代码执行该步骤。最后的答案是一个可以执行为数字类型或SymPy对象的程序。我们的少样本提示包括使用内置数字操作、math模块和SymPy的示例。GSM8kPython通过编写一个执行为整数答案的Python程序来解决GSM8k单词问题。我们使用了Gao等人2023的提示。 如下表所示LLEMMA在两个任务上都优于Code Llama。它在MATH和GSM8k上使用工具的性能也高于它在没有工具的这些数据集上的性能。 形式化数学数学证明 交互式证明助手例如Lean和Isabelle使用特殊的编程语言来帮助验证数学证明。但是与常见的编程语言相比这些特殊语言的数据非常少。 LLEMMA模型经过进一步的预训练以处理与这些证明相关的任务。在给定问题、非正式证明和正式声明后LLEMMA可以生成Isabelle代码的正式证明。此外模型还可以根据证明助手给出的状态生成证明的下一个步骤。 LLEMMA在Proof-Pile-2的预训练包括从Lean和Isabelle提取的正式数学数据总计超过15亿个标记。作者对LLEMMA在两个任务上的少样本性能进行了评估 非正式到正式的证明根据非正式的说明为数学问题生成正式的证明。正式到正式的证明在已知的证明步骤中为下一个步骤生成代码。 结果显示LLEMMA在Proof-Pile-2上的继续预训练提高了两个正式定理证明任务的少样本性能。 数据混合 在训练语言模型时经常会根据混合权重提高训练数据中高质量子集的样本频率。作者通过在多个手动选择的混合权重上进行短期训练然后选择在高质量保留文本上使用MATH训练集最小化困惑度的权重。通过这种方法确定了训练LLEMMA的最佳数据混合比例为2:4:1。 数据重叠和记忆 作者检查了测试问题或解决方案是否出现在语料库中。通过查找与测试序列中任何30-gram相匹配的文档确定匹配程度。作者发现大约7%的MATH测试问题陈述和0.6%的解决方案在语料库中有匹配。 在随机抽取的100个匹配中作者详细检查了测试问题与OpenWebMath文档之间的关系。其中41个案例没有解决方案49个提供了与MATH基准解决方案不同但答案相同的解决方案9个答案错误或缺失而只有1个与基准解决方案相同。 作者进一步探索了语料库中的问题如何影响模型的性能。当将LLEMMA-34b应用于具有30-gram匹配的测试示例和没有30-gram匹配的测试示例时模型在难题上的准确率仍然较低例如在具有匹配的Level 5问题上的准确率为6.08%而在没有匹配的问题上的准确率为6.39%。 作者发现30-gram匹配与各个难度级别的准确性之间没有明确的关系。这意味着测试示例和训练文档之间的重要匹配并不意味着模型生成了一个记忆中的正确答案。 此外作者还检查了LLEMMA在MATH生成中与OpenWebMath之间的30-gram匹配发现了13个匹配这些匹配发生在模型生成了一系列常见的数字序列时例如斐波那契数列以及一次多项式因式分解的情况。这些观察结果值得进一步研究。 结语 在这篇研究中研究团队成功地推出了LLEMMA和Proof-Pile-2这是专为数学语言建模设计的大语言模型和语料库。他们公开了模型、数据集和相关代码。 研究揭示LLEMMA在开放权重模型的数学问题解决标准测试上的表现尤为出众它不仅能通过Python代码娴熟地调用外部工具还在定理证明中展示了少样本策略预测的高效实用性。此外该团队深入探讨了模型在解决数学问题时的卓越性能。 LLEMMA的出现为我们展现了数学与人工智能融合的新前景。随着LLEMMA和Proof-Pile-2的应用期望在未来更能深化对语言模型的泛化能力、数据集结构的认知探索将语言模型作为数学助手的可能性并不断提升其处理数学问题的能力。 备注昵称-学校/公司-方向/会议(eg.ACL)进入技术/投稿群 idDLNLPer记得备注呦
http://www.pierceye.com/news/92854/

相关文章:

  • 查询网站收录命令用wordPress搭建图片库
  • 网站开发的验收标准给几个网址谢谢
  • 手表网站大全网络推广竞价
  • 中创高科官方网站wordpress 页面添加js
  • 平台网站怎么做专业网站设计公司排名
  • 网站开发公司 重庆百度seo标题优化软件
  • wordpress 导入主题网站建设优化广告流量
  • 网店装修网站房屋装修设计费一般多少
  • 微信公众平台制作网站设计网站页面要怎么切图
  • 个人网站 备案 类型小红书笔记推广
  • 门户网站怎么创建网页制作步骤php
  • 六师五家渠市建设局网站wordpress 定时发布插件
  • 深圳外贸网站外贸网站建设安阳网站建设服务
  • wdcp 网站建设做民宿推广都有哪些网站
  • 常见的网站开发环境网站建设的结构
  • 贵阳网站推广优化公司做网站的公司搞什么活动
  • 安徽平台网站建设制作坪山网站设计的公司
  • 如何做挂qq的网站2017网站建设
  • wordpress语言切换网站保定广告设计公司
  • 做网站需要走公司吗运行一个网站要多少钱
  • 怎样可以免费做网站wap网站软件
  • 织梦手机网站免费模板漳州城乡建设局网站
  • 厦门建设网站的公司php除了写网站吗
  • 如何做全网影视网站居然之家装修公司怎么样
  • 佛山网站建设公司哪家最好万能软文范例800字
  • 网站排名优化如何做wordpress 免费版广告
  • 拓客网站建设建易网官网
  • 网站目录链接怎么做的建网站pc版 (报价)
  • 北京网站制作业务如何开展做网站海报
  • 网站的设计方法有哪些互动网络游戏公司网站建设